La parábola del coche eléctrico
El XX parecía destinado a ser el siglo de los vehículos eléctricos. Otras muchas facetas de la actividad industrial, urbana y doméstica se vieron afectadas por la electrificación en ese siglo. No así los automóviles. El primer vehículo eléctrico del que se tiene noticia fue obra del químico británico Robert Davidson. Lo fabricó en Aberdeen en 1837. En 1842 construyó otro con una batería de zinc, llamado Galvani, que se desplazaba a 4 millas por hora. El zinc que consumía era cuarenta veces más caro que el carbón que había que quemar en una máquina de vapor para conseguir el mismo resultado y, en todo caso, no era de ninguna utilidad. En 1884 Thomas Parker construyó en Londres el primer coche eléctrico de baterías recargables –un prototipo, en realidad- y en 1888 Andreas Flocken creó en Alemania el Flocken Elektrowagen, considerado el primer coche eléctrico verdadero de la historia. A partir de entonces se empezaron a fabricar industrialmente y llegaron a ser bastante populares por su fácil manejo y comodidad.
A finales del XIX había en Londres una amplia flota de taxis eléctricos conocidos con el nombre de “colibríes”. El Comisionado de la Policía Metropolitana aprobó su uso para hacer frente al creciente problema de tráfico, ya que ocupaban la mitad de espacio que los coches de caballos. Taxis similares circularon por París, Berlín y Nueva York. A comienzo del siglo XX había en los Estados Unidos más de treinta mil coches eléctricos registrados. Eran mucho más populares que los de gasolina, menos ruidosos y no contaminaban el aire de las ciudades. Sin embargo, en poco más de una década la fabricación de esos coches se redujo hasta cesar. Los conductores de los coches de caballos londinenses lanzaron una intensa campaña haciendo publicidad de las averías y accidentes de sus rivales eléctricos hasta conseguir sacar del mercado a la London Electric Cab Company. Los coches eléctricos tuvieron algunos problemas técnicos, es cierto, pero fueron exagerados por sus rivales, que se esforzaron por mostrar a sus nuevos competidores bajo la peor apariencia posible.
Al mismo tiempo, el descubrimiento de grandes reservas de petróleo hizo que el precio de éste se desplomase, y Henry Ford empezó a vender coches de gasolina a la mitad de precio que los eléctricos. La construcción de mejores carreteras en Norteamérica incentivó los desplazamientos de larga distancia en automóvil, algo que no estaba al alcance de los coches eléctricos por su escasa autonomía y excesivo tiempo necesario para recargar las baterías. La introducción en 1912 del motor de arranque eléctrico acabó por inclinar la balanza a favor del coche con motor de combustión interna. Así fue como este acabó siendo el que ganó el siglo que, al comienzo, iba a ser del motor eléctrico.
El prematuro fracaso de los coches eléctricos es una parábola que ilustra una de las dificultades más sorprendentes que afectan al desarrollo de ciertas novedades. Hay innovaciones supuestamente beneficiosas que no consiguen abrirse camino en el momento en que se intentan por primera vez. Para que la novedad tenga éxito deben darse, de forma simultánea, determinadas condiciones. En caso contrario, la experiencia está abocada al fracaso. En otras palabras: no basta con buenas ideas, hace falta, además, que las circunstancias acompañen. Es posible que en el pasado se quedasen en el cajón o la estantería ideas excelentes que tuvieron la mala fortuna de nacer antes de tiempo. Esa es la razón por la que se desarrollan hoy programas para recuperar buenas ideas que, cuando surgieron, no tenían el terreno abonado pero que quizás lo tengan en la actualidad.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 21 de mayo de 2017.
El artículo La parábola del coche eléctrico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Arte & Ciencia: La ciencia como herramienta del arte
El arte y la ciencia son dos formas de conocimiento aparentemente alejadas, en gran medida consecuencia de la especialización profesional y la educación compartimentada. Del estudio de esta impostada separación surgió el estereotipo de las dos culturas, las ciencias y las humanidades, para referirnos a esa brecha de conocimiento. La realidad es que la ciencia y el arte sí están conectadas y que ninguna forma de conocimiento es impermeable a otra. Por poner algunos ejemplos: ¿Cómo podría crearse una obra plástica sin las técnicas propiciadas por la ciencia? ¿Cómo podríamos interpretar la elección de materiales?
Estas y otras cuestiones relacionadas furon tratadas por destacados profesionales -artistas, ilustradores, filósofos y científicos- que han puesto el foco en ese difuso trazo que une la ciencia y el arte. El ciclo Ciencia & Arte se desarrolló, bajo la dirección de Deborah García Bello, a lo largo de cuatro jornadas que se celebraron los jueves días 6 y 27 de abril y 11 y 25 de mayo de 2017 en el auditorio del Museo Guggeheim Bilbao.
Esta actividad de la Cátedra de Cultura Científica de la UPV/EHU se enmarca en el programa TopARTE que conmemora el XX Aniversario del Museo Guggenheim Bilbao.
Jornada 4. 2ª conferencia.
Déborah García Bello es investigadora de la relación entre arte y ciencia y divulgadora científica: La ciencia como herramienta del arte.
Las colaboraciones que existen entre artistas y científicosEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Arte & Ciencia: La ciencia como herramienta del arte se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Por qué no nos basta con el viento
Sobrevivir a largo plazo como especie es, como las infames resoluciones de año nuevo, uno de esos objetivos que nadie persigue pero que todos aceptamos como evidente en sí mismo. Lo cierto es que hay muchas formas de plantearlo: ¿qué consideramos «largo plazo»? ¿Tiene que importarnos, necesariamente, lo que pueda ocurrirles a unos Homo sapiens que todavía no han nacido? Y, sobre todo, ¿qué entendemos por sobrevivir? La existencia de nuestros antepasados en las sabanas africanas, en números reducidos y rodeados de miseria, privaciones y aplicados depredadores es un modo de vida sin duda natural y sostenible. Así se mantuvo década tras década, siglo tras siglo, durante muchas decenas de miles de años. ¿Es esto lo que queremos para nuestra descendencia?
No cuesta mucho dudar de semejante concepto de supervivencia. Dejemos de lado a los ecologistas radicales que, secretamente o no tanto, desearían diezmar nuestras muchedumbres hasta dejarlas en poquedumbres, arrancarnos de las manos nuestros teléfonos inteligentes y nuestros frigoríficos y arrojarnos de vuelta al paleolítico, donde podremos poner en práctica la «dieta paleo»… de algún animal con dientes afilados. Lo que de verdad entendemos por «supervivencia a largo plazo» es una existencia estable e iluminada, con tecnología —desde luego— pero en equilibrio con el resto de los seres vivos que nos rodean, a lo largo de al menos tantas decenas de miles de años como llevamos en este caballito de tiovivo esférico que llamamos Tierra.
Dejaré para mejor ocasión el frente abierto de si tal deseo puede cumplirse, pero suponiéndolo posible, tengo una noticia: no hay forma de poder realizar un objetivo así si no encontramos el modo de satisfacer nuestras necesidades energéticas de un modo completamente renovable. El segundo principio de la Termodinámica prohíbe, a la postre, la existencia de fuentes de energía sin fin: sin embargo, en tanto nuestro número no se dispare exponencialmente ni hablemos de escalas de tiempo cósmicas no deberíamos preocuparnos. Podemos representarnos a nosotros mismos «agotando» el petróleo, o —al nivel de extracción energética de los procesos de fisión nuclear industrial actuales— el uranio: es mucho más difícil pergeñar formas de acabar con el viento o la luz del sol.
La tecnología de nuestro siglo tiene, en el campo de las energías renovables, tres protagonistas fundamentales: la eólica, la solar y la hidroeléctrica. En el caso de esta última, parece evidente el motivo por el que no satisfacemos todas nuestras necesidades de energía con ella: es fuertemente dependiente de la existencia de grandes masas de agua que represar y terrenos con cuencas en los que hacerlo —recursos que no están disponibles con la frecuencia que desearíamos. Las otras dos fuentes energéticas no tienen, a primera vista, más límites para su despliegue que la disponibilidad de terrenos y la voluntad inversora de Estado y empresas; competirán entre sí y la más rentable tomará la delantera. El mercado decide: ¿qué está escogiendo?
Observemos el gráfico de distribución de la potencia instalada en España por tipo de fuente. Si recalculamos los porcentajes de las renovables sobre su propio total obtenemos que la energía hidráulica supone un 35,6%, la eólica un 48,1% y la solar, en todos sus tipos, un magro 9,7%, quedando un testimonial 4,8% para otras fuentes de energía como la biomasa, la geotérmica o la maremotriz. La inmensa mayoría de los embalses posibles en España ya están construidos, así que no es de esperar que el porcentaje de la energía hidráulica aumente significativamente en el futuro. Está claro que el modo de generación que más rentable está resultando y sobre el que puede predecirse un mayor crecimiento en los próximos cinco años es el viento. La pregunta clave para el futuro de nuestras necesidades energéticas es: ¿por qué no alimentar todo con aerogeneradores?
Los nuevos gigantes
Desde finales de los años 90, los aerogeneradores han pasado de ser una visión extraña a salpicar nuestra geografía con casi mil parques contabilizados a finales de 2016, distribuidos por todas las regiones españolas con las llamativas excepciones de Extremadura y Madrid (Ceuta y Melilla tampoco tienen parques eólicos, pero su pequeño tamaño hace más difícil sorprenderse por ello). Estos nuevos molinos serían, a la vista de un aspirante a moderno Alonso Quijano, una vista mucho más espantable que los antiguos: bestias blancas dispuestas en grupos de varias decenas, de tres aspas con un diámetro de giro de más de sesenta metros, apoyadas sobre una airosa columna de otros tantos de altura —el diseño convencional, de origen danés, dicta que la longitud de la pala tenga aproximadamente la mitad de la altura de la columna para un efecto más agradable a la vista.
La rotación del aerogenerador, comprendida habitualmente entre las 8 y las 30 revoluciones por minuto para velocidades del viento entre los 5 m/s (la llamada «velocidad de conexión», por debajo de la cual el sistema no puede girar) y los 25 m/s (la «velocidad de corte», a partir de la que las aspas frenan para evitar problemas de sobrecalentamiento y cargas mecánicas excesivas), permite mover un generador que transforma el movimiento en energía eléctrica. El sistema es más complejo de lo que parece —¿qué no lo es?— pero funciona con una eficiencia de conversión máxima del 46%: de la energía total contenida en el movimiento del aire frente a las palas, hasta un 46% puede extraerse y convertirse en electricidad apta para ser vertida a las redes de distribución.
Para un sistema cuyo «combustible» es completamente gratuito, la cifra es completamente excepcional. De hecho, esta conversión máxima se encuentra tan cerca del límite teórico de extracción de energía del viento (conocido como límite de Betz, y que surge del hecho de que la velocidad del aire tras atravesar el plano de las aspas del aerogenerador no puede descender a cero) que el sistema no se optimiza para un aprovechamiento máximo, sino para un coste mínimo de fabricación y despliegue dada una conversión razonable. La energía eólica ya puede compararse en pie de igualdad con otras fuentes energéticas.
No es de extrañar, por tanto, que en los últimos tiempos un número creciente de colectivos ecologistas estén clamando por la sustitución de las centrales nucleares con energías renovables. El último ejemplo, el pasado mes de junio en Madrid, vio reunirse a varios cientos de personas en una manifestación convocada por más de 120 asociaciones (!). El lema principal de esta manifestación, «Cerrar Almaraz y todas las demás, 100% renovables», expresa la preocupación común entre los colectivos que hacen política con la ecología de que las centrales nucleares son peligrosas y deben ser sustituidas, a la mayor brevedad posible, por fuentes de energía renovable. Como hemos visto, la fuente de energía más preparada para intentar realizar esa transición en un plazo relativamente corto de tiempo es el viento. Planteémosnos la pregunta: ¿es posible sustituir una central nuclear como Almaraz con parques eólicos? Y de ser la respuesta afirmativa, ¿qué implicaría exactamente?
Efecto estela y factor de carga
Cuando se trata de adaptar una tecnología como la eólica para su uso a gran escala es necesario no perder de vista dos fenómenos fundamentales. El primero de ellos impone una consideración práctica de alcance a la hora de diseñar parques eólicos. El segundo establece una limitación más seria, dependiente de la naturaleza misma del recurso aprovechado.
Fijémonos en un molino concreto, con un determinado diámetro de rotor (utilizaremos este parámetro más adelante). El efecto estela es la alteración en el flujo de aire que lo atraviesa debido a las turbulencias inducidas por las aspas y a la propia extracción de la energía del movimiento. El viento saliente de la hélice se mueve más lentamente que el entrante —esa es exactamente la diferencia entre un aerogenerador y un ventilador— y lo hace, además, de un modo más irregular. Esto afectará a otros generadores situados a sotavento del molino en el que nos hemos fijado.
Para compensar el efecto estela, los diseñadores de parques eólicos utilizan el criterio de separar los generadores en filas perpendiculares a la dirección de los vientos dominantes en cada zona, separadas entre sí entre 5 y 9 diámetros de rotor. La separación entre molino y molino en la dirección perpendicular a la de los vientos dominantes (es decir, según las filas en las que se ubiquen) puede ser inferior, de 3 a 5 diámetros. Además, los generadores se colocan al tresbolillo, de manera que se aumente la distancia al máximo posible entre los ubicados en filas contiguas. A pesar de estas precauciones, es común encontrarse con pérdidas «de parque» del orden del 5% respecto a lo que podría generar un solo molino en las mismas condiciones de viento.
Diseñar un parque de aerogeneradores no es una tarea trivial. Desde el punto de vista del mantenimiento y la interconexión eléctrica, interesa colocar los molinos lo más próximos posible entre sí para reducir pérdidas eléctricas y disminuir las distancias de los viales (los caminos que permiten recorrer el parque para realizar tareas de mantenimiento y que tienen que soportar el paso de los transportes especiales y las grúas necesarios para el montaje de los aerogeneradores). Sin embargo, el efecto estela obliga a mantener unas distancias mínimas que, para diámetros de rotor de 60 metros, puede superar el medio kilómetro —será mayor para rotores más grandes. La topografía de la zona conspira en la mayor parte de las ocasiones para hacer todo más complejo aún, restringiendo las posiciones posibles para las bases de los aerogeneradores, complicando la distribución de los viales y alterando localmente el flujo del viento.
El segundo fenómeno a considerar es el llamado factor de carga. El viento, por su naturaleza, es un recurso variable en el tiempo: y varía, además, de una forma muy compleja a diferentes escalas. En nuestras latitudes el viento suele ser más fuerte en invierno que en verano: se trata de la variación estacional. Por su parte, los cambios en la temperatura del suelo y el aire a lo largo del día suelen provocar un patrón de variación diaria por el que los vientos son más rápidos en las horas cercanas al mediodía solar que por la noche. Finalmente, y a escalas temporales más pequeñas, el viento se comporta de forma aleatoria que puede modelarse matemáticamente. El factor de carga es la razón entre la energía efectivamente generada por un molino a lo largo de un periodo de tiempo determinado y la máxima que podría generar, para una velocidad óptima y constante del viento. Los factores de carga habituales en aerogeneradores suelen estar entre el 20 y el 30%.
El viento frente al uranio
Ya disponemos de las herramientas necesarias para contestar a la pregunta que nos planteamos hace unos párrafos: ¿es posible sustituir una central nuclear como la de Almaraz con parques eólicos? En caso afirmativo, ¿cómo sería un parque de aerogeneradores con la misma potencia? Observemos primero los siguientes datos reales de los últimos diez años para la generación eólica y la nuclear, obtenidos del anuario estadístico de Red Eléctrica de España.
Los datos han sido tabulados de forma que la comparación sea sencilla. Para empezar, llama la atención la gran diferencia entre potencia instalada eólica y nuclear. El número de aerogeneradores ha aumentado de forma constante en nuestro país hasta el año 2012, en el que un cambio legislativo en la asignación de primas de generación renovable detuvo por completo la expansión del sector —este mismo año se han reanudado las subastas de potencia renovable con un sistema nuevo de subasta que tiende, a la vista de los resultados, a eliminar las primas: veremos cómo evoluciona el mercado a partir del año que viene.
Por su parte, la energía nuclear apenas ha variado: no se han construido centrales nuevas —y no se hace desde el inicio de la llamada «moratoria nuclear» en 1982. Las únicas modificaciones en la potencia instalada son debidas a pequeñas mejoras técnicas y puntuales en las centrales existentes. Sin embargo, pese a que hay instalados tres vatios eólicos por cada vatio nuclear (en 2016), las centrales nucleares todavía producen casi un 18% más. Esto es debido al efecto del factor de carga característico de cada tecnología, que para los últimos 10 años ha sido de un 24% para la eólica frente a casi un 84% para la nuclear. Es decir: si la central nuclear de Almaraz tiene una potencia instalada de 2093 MW, no basta con instalar los mismos vatios eólicos para igualar su capacidad de generación. Ajustando los diferentes factores de carga, resulta que necesitaremos 7262 MW eólicos para igualar la capacidad de generación de la nuclear.
Ya tenemos una cifra de potencia a instalar, pero ¿cómo será de grande el parque eólico necesario para sustituir Almaraz? Esta deberá ser una cuenta aproximada debido a la complejidad del diseño de un parque eólico, que depende fuertemente de su ubicación. Vamos a suponer, sin embargo, un parque ideal de aerogeneradores no excesivamente caros, de 600 kW y un diámetro de rotor de 50 metros, para unas distancias entre postes medias de 7 diámetros de rotor en la dirección del viento dominante y de 4 diámetros en la perpendicular. En primer lugar, dividiendo la potencia que necesitamos entre la de un aerogenerador (sin olvidar igualar las unidades), obtenemos la cifra de molinos a instalar: aproximadamente 12000. Que un parque normal de aerogeneradores en España tenga alrededor de 60 unidades instaladas nos está indicando que nos enfrentamos a una empresa complicada. Sigamos adelante, sin embargo.
La separación que hemos estimado entre generadores nos puede dar una idea de cuál será la «huella» de cada uno de ellos. Usando una disposición aproximadamente rectangular podríamos ubicar 110 generadores en 110 filas. Cada fila tendrá 22 kilómetros de longitud, y el conjunto de filas se extenderá a lo largo de 38 kilómetros: multiplicando, obtenemos un parque de 847 kilómetros cuadrados. Por poner la cifra en algún contexto significativo, estaríamos hablando de un parque que ocuparía el 40% del área de Bizkaia y que tendría alrededor de 3000 kilómetros de viales de acceso para comunicar entre sí los generadores. Con molinos más grandes (y más caros) de 2000 kW y diámetros de rotor de 80 metros, el parque teórico tendría 645 km².
Vistas estas cifras, lo razonable sería fragmentar la potencia en varios centenares de parques, que podrían convertirse en algunos miles si el objetivo fuera sustituir por energía eólica toda la generación nuclear actual de España. ¿Es posible? Solo marginalmente, y a un coste muy elevado tanto económico como ecológico. No debemos olvidar que este análisis no tiene en cuenta que el factor de carga de la energía eólica es un promedio: la energía realmente generada mostrará la misma variabilidad compleja que hemos descrito antes para el viento. Hacerla constante requeriría del concurso de tecnologías adicionales, como inmensos bancos de baterías, que aún no se encuentran desarrolladas a la escala necesaria. Podemos hacer también una predicción para el futuro que tiene muchas probabilidades de cumplirse: la oposición ecologista a la energía nuclear se iría desplazando, paulatinamente, a la energía eólica conforme esta adoptara una posición preponderante en el combinado energético.
Una política energética racional debería potenciar y diversificar las energías renovables, pero no a expensas de la potencia nuclear ya instalada y con una vida útil aún larga por delante, sino frente a las tecnologías que más comprometen los objetivos de emisión de CO₂: carbón y petróleo. Combinar este enfoque con una decidida inversión en ahorro energético e investigación y desarrollo en todos los campos de producción de energía aparece como la apuesta de futuro con más probabilidades de llevar a nuestra especie más allá de los confines de este aterrador siglo. Después… veremos.
Este post ha sido realizado por Iván Rivera (@Brucknerite) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU
Referencias y más información:
Red Eléctrica de España. (28/06/2017). Las energías renovables en el sistema eléctrico español 2016. Visitado el 20/07/2017 en http://www.ree.es/es/estadisticas-del-sistema-electrico-espanol/informe-de-energias-renovables
Barbero, A. J. (2012). Curso de Física Ambiental, Universidad de Castilla-La Mancha. Visitado el 24/07/2017 en https://previa.uclm.es/profesorado/ajbarbero/FAA/EEOLICA_Febrero2012_G9.pdf
Grodira, F. (10/06/2017). Más de medio millar de personas se manifiestan en Madrid contra las nucleares. Público. Visitado el 25/07/2017 en http://www.publico.es/sociedad/medio-millar-personas-manifiestan-madrid.html
El artículo Por qué no nos basta con el viento se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La contradicción de la publicación
La ciencia, como actividad, se basa en la publicación de sus resultados: en que los científicos hagan públicos los descubrimientos, reflexiones y datos, permitiendo así que otros científicos los conozcan y utilicen en sus propias reflexiones y experimentos. En el ámbito científico se lleva al extremo aquel viejo refrán de literatos que dice que escribir para el cajón es masturbación; en ciencia lo que no se ha publicado sencillamente no existe. Las reputaciones de quienes practican ciencia, su importancia y su influencia dependen de sus publicaciones; artículos, principalmente, aunque después también revisiones y libros de texto. Hacer ciencia incluye, por definición, hacer pública la ciencia.
Pero en los últimos tiempos dos factores han contribuido a deformar el sistema de publicación, retorciéndolo y haciendo que cada vez se aparte más de su función original dentro del método de la ciencia. Por una parte la práctica científica se ha burocratizado: al convertirse los estados en una parte clave de la financiación y el respaldo de la ciencia necesariamente su práctica se ha transformado. Las carreras científicas se han estandarizado; los sistemas para solicitar financiación se han convertido en estructuras burocráticas con sus plazos, sus instancias y sus currículos normalizados. Para que cualquier sistema burocrático funcione es necesario evaluar los resultados de las diferentes medidas tomadas; el rendimiento de los fondos invertidos, o la calidad y productividad de los científicos individuales.
Porque a la hora de dar plazas, o recursos, la burocracia exige baremos y la cantidad y calidad de los trabajos publicados se han convertido en las medidas clave del sistema científico. El número de ‘papers’ publicados y su impacto según diversos índices (número de citas, calidad de las revistas, etc) son ahora la llave para obtener plazas, laboratorios, becarios, proyectos; en suma, para progresar en ciencia. De ahí el famoso ‘publish or perish’ (publica o perece) que impulsa a los científicos en activo. Ya no la reputación o el gran descubrimiento: lo que hace falta es tener muchas publicaciones en revistas de impacto y un índice h cuanto mayor, mejor.
Simultáneamente a esto y en paralelo la publicación científica se ha convertido en un negocio multimillonario que proporciona pingües beneficios a un puñado de poderosas empresas. Gracias a la inteligencia empresarial de algunos y a la necesidad de vehículos de publicación que tiene la creciente masa de científicos en activo (sobre todo del sector público) han ido surgiendo decenas de miles de revistas especializadas en campos cada vez más recónditos con un modelo de negocio espectacular para cualquier editor: los autores no cobran por publicar (a veces pagan), los editores no cobran por editar (o reciben pagas ridículas) y universidades y centros de investigación están obligados a comprar las revistas resultantes al precio que les pongan (o a pagar la suscripción electrónica). Un verdadero chollo de negocio, respaldado además por una legislación de ‘propiedad’ intelectual excesiva que sesga el mercado hacia los intereses de las editoriales en cuestión.
Como consecuencia de estos dos factores se está produciendo una serie de deformaciones y monstruosidades que están afectando a la ciencia misma. Estamos viendo a científicos que cometen ‘piratería’ para dar a conocer su propio trabajo a otros científicos del ramo. Las universidades y centros de investigación dedican enormes sumas a pagar suscripciones, un dinero que no se puede dedicar a la propia investigación. La situación llega a tal punto que se han creado grandes depósitos ‘piratas’ de artículos que millones de científicos de todo el mundo usan como último recurso, además de proyectos de ciencia en abierto, con éxito creciente. Al mismo tiempo ha nacido y crecido una industria de revistas predatorias que se aprovechan de la enorme necesidad de publicar para cobrar a los científicos por hacerlo, aunque sea con ínfima calidad. Todo esto supone el desvío de ingentes cantidades de dinero público a bolsillos privados, con el agravante de que esos beneficios se basan no en dar a conocer los resultados de la ciencia, sino en limitar el acceso a sus publicación.
Hay indicaciones de que el sistema está sometido a tanta tensión que se está rompiendo. Sci-Hub es ahora tan grande que podría acabar por destruir el sistema de publicación ‘for profit’ y el cártel de las grandes editoriales; el problema de las revistas predatorias (también hay seminarios y simposios) está recibiendo más atención y se está dejando de considerar el simple número de publicaciones y firmas como criterio válido para científicos o proyectos. Los centros de investigación públicos, que ya han pagado por crear los resultados, están apostando por sistemas de distribución de estos resultados que no les cuesten aún más dinero. Todo lo cual son pasos en la buena dirección, que no serán suficientes mientras los sistemas de evaluación de calidad y productividad se sigan basando en criterios tan poco inteligentes como los actuales. Porque por definición ciencia es publicar, y es una contradicción intrínseca y un absurdo basar su medida en cualquier limitación de la publicación.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo La contradicción de la publicación se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El teorema de Marion (Walter)
El teorema de Marion es un bonito ejemplo de resultado de geometría afín. No se sabe quién fue la primera persona que lo enunció, pero la matemática Marion Walter (1928) lo explicó en alguna de sus clases y también aparece en varios sus trabajos; por ello se recuerda con su nombre.
El teorema afirma lo siguiente:
Tomemos un triángulo cualquiera ABC, trisequemos sus lados y unamos cada uno de los dos puntos que definen esta división con el vértice del lado opuesto del triángulo (ver la figura 1). Queda determinada una región hexagonal central (de vértices DEFGHI en la figura 1) cuya área es 1/10 del área del triángulo original.
La demostración de este teorema no es complicada; puede encontrarse, por ejemplo, una prueba en [1] en la que se utilizan coordenadas trilineales respecto del triángulo ABC.
En 1994, Ryan Morgan (ver [2]) generalizó este teorema en los siguientes términos:
Dado un triángulo cualquiera ABC, si se dividen sus lados en n partes iguales (donde n es un número entero impar) y se une cada uno de los n-1 puntos que definen esta división con el vértice del lado opuesto del triángulo, entonces queda determinada una pequeña región hexagonal central. La razón entre el área de este hexágono y la del triángulo original es constante. Más concretamente, el área de esta región es
del área del triángulo original.
Para n=3 tenemos, efectivamente, el teorema de Marion.
Si n es par, el proceso anteriormente descrito no produce un hexágono central necesariamente, o no tiene porqué ser único. Aunque existen resultados parciales como el dado en [3] para n=4.
Recordemos que se llaman números poligonales centrados a aquellos números figurados que pueden representarse mediante un conjunto de puntos equidistantes formando un polígono regular. Entre ellos, los números nonagonales centrados son aquellos que pueden representarse sobre un nonánogo, con un punto en el centro rodeado de sucesivas capas nonagonales:
Los números (3n+1)(3n-1)/8, para n entero impar, que aparecen en el teorema de Morgan son precisamente números nonagonales centrados. Puede encontrarse un listado con los primeros y algunas de sus propiedades en The On-Line Encyclopedia of Integer Sequences (ver [4]); son: 1, 10, 28, 55, 91, 136, 190, 253, 325, 406, 496, 595, 703, 820, 946, 1081, 1225, 1378, 1540, 1711, 1891, 2080, 2278, 2485, 2701, 2926, 3160, 3403, 3655, 3916, 4186, 4465, 4753, 5050, 5356, 5671, 5995, 6328, 6670, 7021, 7381, 7750, 8128, 8515, 8911, 9316, …
¿No es emocionante ver como se relacionan estos números –los del teorema de Morgan y los nonagonales centrados–procedentes de acercamientos diferentes?
Por cierto, aparte de este bellísimo teorema, otra de las aportaciones que debemos a Marion Walter es una colección de setenta fotografías de su colección particular realizadas, en su mayoría, por la propia Marion y que han pasado a formar parte de los Archives of American Mathematics. En ellas aparecen notables matemáticas y matemáticos, comoTobias Danzig, Paul Erdös, Paul Halmos, Irving Kaplansky, Alexander Ostrowski, George Pólya, Mina Rees, Isaac Schoenberg u Olga Taussky-Todd, entre otros.
Referencias
[1] Marion’s theorem, Wolfram MathWorld
[2] Ryan Morgan, No Restriction Needed. The Mathematics Teacher 87, 726 y 743, 1994.
[3] Luca Goldoni, A generalization of Marions Walter’s theorem, 2016
[4] A060544: Centered 9-gonal, OEIS
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo El teorema de Marion (Walter) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Evolución de los sistemas nerviosos: el tálamo y el hipotálamo
Como vimos en la anotación anterior de esta serie, el prosencéfalo o encéfalo anterior de los vertebrados está integrado por el diencéfalo y el cerebro. En esta ocasión nos ocuparemos del diencéfalo que, como también vimos, comprende el tálamo y el hipotálamo, dos estructuras con funciones netamente diferenciadas.
El tálamo
Del tálamo se podría decir que se encuentra en lo más profundo del encéfalo, justo por encima del tallo encefálico y cerca de los ganglios basales. Cumple la función de “estación de relevo” y centro de integración sináptica para un primer procesamiento de las señales sensoriales en su trayecto hacia la corteza cerebral. Realiza una labor de cribado de señales insignificantes y dirige los impulsos sensoriales importantes a las áreas de la corteza somatosensorial (a la que nos referiremos en próximas anotaciones) y a otras regiones del encéfalo. Y de la misma forma que conduce información sensorial a la corteza, también recibe señales de aquélla, señales susceptibles de modificar su propia actividad, haciendo variar la intensidad y naturaleza de la información que remite a otros centros.
Junto con el tallo encefálico y áreas asociativas de la corteza, el tálamo es clave para dirigir la atención hacia estímulos relevantes. Un ejemplo ilustrativo de esa función (en mamíferos) es la facilidad con la que la madre –y el padre en aquellas en que el cuidado parental es compartido- despierta al menor suspiro del bebé pero permanece dormido en medio de una tormenta violenta. También es capaz de hacer conscientes otras sensaciones, aunque no lo es de identificar la localización de los correspondientes estímulos o de determinar su intensidad.
Además de las anteriores, el tálamo juega un papel importante en el control motor, reforzando el comportamiento motor voluntario iniciado por la corteza.
El hipotálamo
Su posición es, como su nombre indica, inferior a la del tálamo, y algo más adelantada. Es una colección de núcleos específicos con sus fibras nerviosas asociadas. Es un centro de integración de varias y muy importantes funciones de regulación homeostática del organismo. Vincula funcionalmente el sistema nervioso autónomo con el sistema endocrino; de ahí el carácter integrador al que acabamos de aludir. De hecho, el hipotálamo conforma el sistema de integración neuroendocrino por excelencia: el denominado sistema hipotálamo-hipofisario que, como su nombre indica, está integrado por la hipófisis o glándula pituitaria (glándula máster del sistema hormonal) y el hipotálamo. En futuras anotaciones nos referiremos con detalle a este sistema.
En concreto, el hipotálamo controla los siguientes procesos o funciones: (1) la temperatura corporal en homeotermos; (2) la sed y la producción de orina, o sea, controla el balance de agua y de sales del organismo; (3) la ingestión de alimento; (4) las contracciones uterinas y la eyección de leche en mamíferos; (5) coordina el sistema nervioso autónomo, lo que afecta a la actividad de músculo liso y del cardiaco, así como a las glándulas exocrinas; y (6) juega un papel fundamental en el comportamiento y la expresión de las emociones. Parte de estas tareas las realiza mediante la intermediación o a través de la glándula pituitaria.
El hipotálamo ocupa un nivel intermedio en la jerarquía del control neurológico y está considerado como un centro integrador de reflejos. Quiere esto decir que recibe señales de receptores sensoriales internos y, en respuesta, envía órdenes a través de vías en las que intervienen muy pocas sinapsis para generar rápidamente las respuestas reguladoras. Como ocurre con otros reflejos, esas respuestas se producirían con más retraso si interviniesen los centros superiores del cerebro. Un ejemplo ilustrativo es lo que ocurre con la señal de frío: la respuesta hipotalámica da lugar a una serie de acciones que promueven la producción de calor (como la tiritación), a la vez que se reduce la pérdida de calor corporal disminuyendo notablemente la circulación periférica al provocar el estrechamiento de los vasos sanguíneos más superficiales, o sea, aumentando el aislamiento.
Fuentes:
David Randall, Warren Burggren & Kathleen French (2002): Eckert Animal Physiology: Mechanisms and Adaptations 5th ed.; Freeman & Co, New York
Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Evolución de los sistemas nerviosos: el tálamo y el hipotálamo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El estatus de la segunda ley de la termodinámica
La segunda ley de la termodinámica tiene un estatus bastante diferente al de las leyes de conservación.
Efectivamente, si bien al igual que éstas la segunda ley es extremadamente efectiva y de gran alcance, además de ser una de las leyes fundamentales de la ciencia, tiene una diferencia fundamental con las leyes de conservación o con las leyes del movimiento de Newton. La segunda ley de la termodinámica más que proporcionar resultados mensurables con precisión establece qué procesos o fenómenos son imposibles.
Así, por ejemplo, es imposible hacer que la entropía del universo (o de un sistema aislado) disminuya; es imposible hacer que el flujo de calor vaya de un cuerpo frío a uno caliente a no ser que se efectúe trabajo sobre algo, como ocurre en una máquina frigorífica; es imposible inventar un motor térmico con una eficiencia superior al 100%.
En otras palabras, la segunda ley implica de forma fundamental que los procesos en los que interviene el calor suceden sólo en una dirección: la entropía aumenta; el calor fluye de objetos calientes a los fríos. Por lo tanto, la segunda ley enlaza de forma fundamental con la idea de que el tiempo transcurre en una sola dirección. Esto es, eso que vemos cuando hacemos que una película de acontecimientos cotidianos vaya marcha atrás no puede ocurrir en el mundo real. Por ejemplo, dos líquidos se pueden mezclar rápida y espontáneamente por sí mismos; pero no pueden desmezclarse espontáneamente
Hemos visto, aunque no lo hemos dicho expresamente así, que durante los procesos reversibles, como en los que intervienen máquinas térmicas ideales sin fricción, la entropía del universo se mantiene constante, o sea, que ΔSuniverso= 0 . Sin embargo, en todos los demás procesos, todos los que no son reversibles, la entropía del universo aumentará, ΔSuniverso> 0. Esto implica que no existe ningún caso en el que la energía del universo disminuya. Lo que quiere decir, por ejemplo, que el calor no fluirá espontáneamente de los cuerpos fríos a los calientes, porque ello implicaría una disminución de entropía. De forma análoga, no cabe esperar que una pelota que está en el suelo del patio adquiera espontáneamente energía del entorno y se lance hasta el tercer piso del colegio; ni que un huevo batido se desbata, ni que el barco en el que haces un crucero tome energía del mar y lance cubitos de hielo por la chimenea. Démonos cuenta de que todos estos procesos podrían ocurrir sin que se violase ninguna de las leyes de la mecánica newtoniana o ninguna ley de conservación. Pero son cosas que no pasan. Y no pasan porque las “prohíbe” la segunda ley de la termodinámica [1].
Todos los procesos reales [2] que podamos enumerar serán con casi total seguridad, irreversibles y, por lo tanto, contribuirán al incremento de la entropía del universo. Pero esto tiene una consecuencia ingenieril importante: el calor útil para conseguir que las máquinas hagan trabajo se está agotando. William Thomson, más conocido por la fórmula de tratamiento nobiliario británica, Lord Kelvin, predijo que al final todos los cuerpos del universo alcanzarían la misma temperatura a base de intercambiar calor unos con otros. Cuando esto ocurriese, sería imposible producir trabajo útil a partir del calor, ya que el trabajo solo se puede producir a partir de máquinas térmicas cuando el calor fluye de los cuerpos calientes a los fríos. Los ingenieros dejarían de ser necesarios, todo lo parecido a vida (una forma de máquina térmica) dejaría de existir, las estrellas se disgregarían tras apagarse, y el universo habría muerto [3].
Veremos estas ideas con más detalle y algo matizadas en próximas entregas cuando introduzcamos las moléculas en nuestro estudio de la dinámica del calor. Porque, efectivamente, para todo esto no nos ha hecho falta ni siquiera suponer que existen los átomos.
Nota:
[1] Entrecomillamos “prohíbe” porque la segunda ley, tal y como la hemos deducido, es solo una ley fenomenológica que describe qué ocurre, no prescribe qué ocurre. Es como los diccionarios bien entendidos, describen cómo se usa el lenguaje pero no tienen potestad alguna para decir cómo se debe hablar (por mucha autoridad dictatorial que alguno se atribuya y muchos seguidores que tenga el dictador).
[2] Preventivamente: un cambio infinitesimal es una idealización matemática.
[3] El tema de la muerte térmica puede encontrarse en muchos relatos de ciencia ficción. Especialmente reseñables son “La máquina del tiempo” de H.G. Wells y el relato breve “La última pregunta” de Isaac Asimov.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El estatus de la segunda ley de la termodinámica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El tono absoluto y las lenguas tonales
El tono absoluto (absolute pitch) o tono perfecto (perfect pitch) es la capacidad para identificar una nota musical cualquiera en ausencia de una nota de referencia. En Europa y Estados Unidos tan solo una persona de cada diez mil posee esa capacidad, aunque esa proporción es algo mayor entre quienes han recibido formación musical en edades inferiores a los cinco años.
La mayoría de la gente es capaz de identificar centenares de pasajes musicales y sin embargo, el tono absoluto es, como hemos visto, rarísimo. Aunque no tanto, también es raro en músicos profesionales, que pasan miles de horas leyendo partituras e interpretándolas. Y aunque se ha intentado entrenar a músicos adultos para que lo adquiriesen, los intentos no han dado el resultado buscado.
Desde 2006 se sabe que la capacidad para identificar un tono es mayor aún en los estudiantes de música que hablan mandarín, cantonés o vietnamita. Eso es debido al hecho de que hablan, desde pequeños, lenguas tonales, lenguas en las que el significado depende de modo crítico de la entonación con la que se pronuncian las sílabas.
En una prueba en la que se pedía que se identificasen 36 notas de tres octavas y emitidas en orden aleatorio, las personas que hablaban con fluidez alguna de esas tres lenguas identificaban más del 90% de las notas si habían empezado a estudiar música antes de los cinco años y algo menos del 90% si lo habían hecho entre los cinco y los nueve años. Por contraste, los hablantes de inglés, que no es una lengua tonal, tan solo identificaban el 25% y el 12% en cada caso. Y esos porcentajes no variaban dependiendo de si esos hablantes eran de origen caucásico o si se trataba de descendientes de familias que procedían de países en los que se hablan lenguas tonales. En otras palabras, no se trata de una capacidad ligada al origen de los individuos, sino a si la lengua que hablan es tonal o no. Por cierto, las citadas no son las únicas lenguas tonales; hay algunas en América y bastantes lenguas africanas lo son también.
Fuente: esta información procede de diferentes trabajos dirigidos por la profesora Diana Deutsch, del Departamento de Psicología de la Universidad de California en La Jolla. Pueden encontrarse aquí.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El tono absoluto y las lenguas tonales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Nuevo arte parietal en Arbil V
En el marco del Proyecto de prospecciones arqueológicas para la localización de nuevos vestigios de arte parietal, dirigido por María José Iriarte (UPV/EHU-IKERBASQUE) y financiado por la Diputación Foral de Gipuzkoa, los miembros de Antxieta Jakintza Taldea de Azpeitia han logrado un nuevo hallazgo en el monte Arbil.
En esta ocasión se ha realizado en el término municipal de Deba; concretamente en la cueva Arbil V, que mira hacia el valle de Lastur.
La cueva se conocía desde hace varias décadas, cuando fue catalogada por el grupo Munibe de Azkoitia. Pero ha sido gracias al impulso de este renovado interés por el arte parietal y a las nuevas referencias con las que se están enfocando las investigaciones en la actualidad, cuando el equipo de la sociedad Antxieta de Azpeitia ha conseguido reconocer las líneas grabadas en la roca que corresponden al menos a tres animales.
La cueva catalogada bajo los nombres de Arbil V y Sustraixako kobea, en el valle de Lastur (Deba) ha proporcionado grabados figurativos, de probable cronología magdaleniense. Aunque la cueva tiene importantes proporciones y los trabajos de prospección en su interior son aún preliminares, ya han sido determinadas dos figuras animales completas y porciones de otras dos. Las figuras completas se refieren a una cierva y a otro cérvido macho, probablemente un reno. Se trata del cuarto hallazgo de arte parietal consecutivo del grupo Antxieta, desde el arranque de este proyecto en 2015 (Danbolinzulo, Erlaitz, Astui gaiña y ahora, Arbil V/ Sustraixako kobea).”
El hallazgo se produjo el 26 de marzo. Ese domingo miembros del grupo de arqueología Antxieta (Jose Inaxio Arrieta, Jabier Lazkano, Iñigo Olarte, Javier Maiz, Iñigo Arizaga, Aitor Suinaga, Andres Maiz, Xabier Azkoitia, Igone Elejalde y Ion Uranga) visitaron la cueva y encontraron varias pinturas que podían ser del del Paleolítico. Unos días más tarde, el 9 de abril, especialistas en arte paleolítico (Blanca Ochoa eta Irene Vigiola) y arqueologos especialistas en Paleolítico (María José Iriarte y Alvaro Arrizabalaga) visitaron la cueva y confirmaron el hallazgo.
Maria José Tellería ha destacado que esta cueva es la número 11 en la que ha habido hallazgos en Gipuzkoa. La primera fue Altxerri en Aia en 1962 en la que se encontró un conjunto de pinturas importante, sobre todo en lo referido a grabados. Es una hermosa muestra de diferentes especies. En 1969 se encontró la de Ekain. En palabras de Leroi-Gourhan, una cueva con los caballos del Cuaternario más perfectos. En 2006 se encontraron en Praileaitz. Gracias a este hallazgo la cueva ha podido sobrevivir. En 2009, aparecieron huellas rojas en la cueva Astigarraga de Deba. En 2012 en la cueva Aitzbitarte IV se encontró una estalactita cubierta con una mancha roja que avalaba su antigüedad. A finales de 2014 en la cueva Danbolin de Zestoa se encontraron unas imágenes rojas. A principios de 2015, en la cueva Erlaitz de Zestoa se encontró media docena de hermosos grabados. Ese mismo año en las cuevas Aitzbitarte III, V eta IX de Errenteria se encontraron grabados en sus paredes, imágenes de animales realizadas con pedernales o con los dedos manchados de barro
Tellería también ha subrayado la gran labor de los voluntarios en todos estos hallazgos, voluntarios de los grupos Antxieta, de Felix Ugarte o Munibe.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Nuevo arte parietal en Arbil V se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Hesiré o las proporciones en el arte antes del número áureo
Número áureo, divina proporción, razón dorada… son términos inevitablemente vinculados a las proporciones en el mundo artístico. Todos ellos (representados por la letra φ (phi)) se asocian al número irracional (un número de infinitos decimales) que se expresa mediante la siguiente ecuación:
Pero tampoco es que este número nos diga mucho, así que vayamos con la interpretación geométrica, que resulta mucho más visual:
Se cumple la divina proporción cuando, al dividir un segmento (c) en dos partes (a y b), la relación entre el segmento original (c) y la parte más larga (a) es la misma que entre la parte más larga (a) y la más corta (b). Dicho de otro modo, cuando:
A estas proporciones se les atribuye un valor estético por lo que han sido aplicadas en obras artísticas de todo tipo: desde cuadros renacentistas hasta el diseño de logotipos* (Imagen 2).
Así que a nadie le sorprenderá que haya un software para trabajar con estas dimensiones o una página web exclusivamente dedicada al número áureo. Pero qué queréis que os diga, la cosa se nos ha ido un poco de las manos. Parece que ahora toda composición artística que se precie se adapta a la divina proporción o a la espiral áurea (la que se consigue mediante la combinación de rectángulos áureos). Hay una anécdota que refleja ese hecho a las mil maravillas. Nada más empezar 2016 un periodista comentó en twitter una peculiar fotografía que había dejado la celebración de la entrada en el nuevo año: “Suceden tantas cosas en esa imagen. Como en una hermosa pintura”. Enseguida el mensaje se hizo viral y comenzaron las parodias sobre la fotografía en cuestión. Entre ellas no podía faltar una referente a la espiral áurea.
Aunque, hablando de parodias sobre el número de oro, la que más me ha llamado la atención por lo bien que se adapta a la espiral áurea es la realizada sobre la cabeza del todopoderoso presidente de los Estados Unidos. Dejo en vuestras manos decidir si en este caso la composición es artísticamente deseable.
Pero este artículo no trata sobre el número áureo, del que ya se ha hablado mucho (aquí o aquí) desde que Euclides lo mencionase por primera vez en el s. III a.e.c. Aunque se supone que ya se empleó con anterioridad en la composición del Partenón (s. V a.e.c.) o, incluso, en las pirámides de Guiza (s. XXVI a.e.c.). Y precisamente hoy vamos a viajar a la tierra de las pirámides para conocer un sistema de proporciones más antiguo y mucho más “racional”. Lo haremos de la mano de un personaje que, pese a no haber trascendido al gran público, ocupa un puesto de honor en la historia del arte egipcio: el escriba real Hesiré.
Nos remontamos a la III dinastía del Egipto faraónico, allá por el 2650 a.e.c. cuando las famosas pirámides que acabamos de mencionar ni siquiera se habían empezado a construir. Muy cerca de donde unos años después se erigirían, en la necrópolis real de Saqqara, ya había sucedido un hito: se había establecido el canon egipcio. En mayor o menor medida todos estamos familiarizados con dicho canon. ¿Quién no ha visto alguna vez una imagen del estilo de la que os muestro a continuación?
La gran mayoría de las imágenes del Antiguo Egipto siguen unos principios compositivos idénticos. Por una parte, obedecen a lo que se conoce como principio de frontalidad: la cabeza y las extremidades se representan de perfil mientras que el torso aparece de frente. Si los pensáis, dicha posición es anatómicamente imposible a menos que fuesen expertos contorsionistas. Pero eso no era mayor problema, ya que se trata de una representación simbólica, muy alejada, por ejemplo, de las esculturas griegas que intentan reflejar la anatomía humana. Por otra parte, y la que más nos interesa en este artículo, todas estas figuras siguen un canon de proporciones basado en la aplicación matemática.
Estos principios compositivos perdurarían durante dos milenios en el arte egipcio sin apenas alteraciones. Casi nada. Pero, ¿cómo fue eso posible? Para entenderlo debemos abstraernos de nuestro concepto de arte. El arte egipcio estaba completamente supeditado a la experiencia religiosa y su misión era reflejar la inalterabilidad del orden divino. De hecho, ni siquiera existía el concepto de artista. Se trataba de un arte colectivo en el que cada artesano tenía una función (esculpir o pintar, por ejemplo). Tampoco existía el concepto de belleza que podemos tener hoy en día; ésta estaba asociada a la pericia en ejecutar las normas establecidas. De ahí que el canon se perpetuase de generación en generación con algunas excepciones como los convulsos periodos intermedios o el periodo Amarnense (durante el cual el faraón Akhenatón quiso establecer un sistema monoteísta; así que ya vemos que el arte seguía relacionado con el ámbito religioso). La creación del canon egipcio fue posiblemente un proceso paulatino que se asentó, como decíamos antes, en la III dinastía. Y ahí es donde entra en escena Hesiré o, mejor dicho, Hesiré y sus puños.
Allá por 1861 el arqueólogo Auguste Mariette estaba explorando la mastaba (tipo de enterramiento precursor de las pirámides) de dicho alto cargo del faraón en la necrópolis de Saqqara. Ante sus ojos apareció una fabulosa galería llena de pinturas y unos relieves que pasarían a la historia. Trabajados en madera de cedro de color rojizo, seis de ellos han sobrevivido hasta nuestros días en buenas condiciones pese a tratarse de un material perecedero. Alguna ventaja tenía que tener permanecer enterrado en el desierto.
Los relieves muestran al escriba real (uno de los tantos cargos que ostentaba) en diferentes etapas de su vida. En el que os muestro en la Imagen 7 aparece con una peluca corta antes una mesa de ofrendas mientras sujeta con la mano izquierda un bastón y sus útiles de escriba. En otros casos porta el Kherep (Imagen 8), un distintivo de poder que vuelve a resaltar la importancia del simbolismo en el arte egipcio. Pues bien, serán estos bajorrelieves los que nos ayuden a comprender el sistema de proporciones del arte egipcio.
Los egipcios usaban un sistema de cuadriculas en el que cada parte del cuerpo ocupaba un número diferente de cuadrados. Antes os decía que los puños tendrían una gran importancia en esta historia y es que cada cuadrado era del tamaño de un puño*. Partiendo de esa base, cada figura de pie tendría una altura de 18 cuadrados desde los pies hasta el nacimiento del pelo. Alguien podría pensar que lo lógico hubiese sido cubrir toda la altura de la figura, pero en el caso de que portase algún objeto en la cabeza las medidas resultarían más complicadas (¡lo tenían todo pensado estos egipcios!). Siguiendo con la misma referencia, las rodillas acabarían con el sexto cuadrado y el resto del cuerpo ocuparía 10 unidades, dejando las últimas dos para cubrir el cuello y la cabeza. En la Imagen 8 podéis ver cómo se cumplen esas propiedades en uno de los relieves. Si os fijáis, la cuadricula sirve para localizar y dar tamaño a diferentes partes del cuerpo: el ombligo está a la altura del undécimo cuadrado, los pies de Hesiré ocupan tres espacios, etc. Pues bien, este sistema permitía a los egipcios mantener un sistema de proporciones constantes en una composición por muchos personajes que apareciesen (a no ser que el simbolismo exigiese un cambio, como cuando el faraón se representaba de mayor tamaño para dejar constancia de su poder).
Tras ver la imagen anterior podemos comprender por qué las composiciones egipcias resultan tan “cuadriculadas”. Pero, ¿qué sucede cuando el personaje no está de pie? La verdad es que el sistema se aplica de una manera muy similar en las figuras sedantes, sólo que, obviamente, la altura es menor: 14 cuadrados. En todo caso, el único módulo que sufre cambios es el que va desde los hombros a las rodillas, que pasa a estar compuesto por seis cuadrados. Esto resulta lógico si tenemos en cuenta que es la parte del cuerpo que se dobla con el cambio de posición. Así, en la Imagen 9 podéis observar como el Hesiré que os mostraba ante la mesa de ofrendas cumple rigurosamente esta norma. Esto no supone ningún cambio en el resto de proporciones anatómicas, ya que el tamaño absoluto de la figura no varía, simplemente hay cuatro cuadrados que ocupan un espacio horizontal en lugar de vertical.
En este sistema, sencillo a la par que elegante, los egipcios encontraron el modo para perpetuar su canon artístico durante siglos, en un periodo que se prolongó entre las dinastías III (s. XXVII a.e.c) y la dinastía XXVI (s. VII a.e.c) donde las figuras se estilizaron y su altura superó los veinte cuadrados. Así, aunque Hesiré no haya logrado la fama de sus paisanos Nefertiti o Tutankamón, su nombre ocupa un puesto de honor en la historia del arte egipcio.
Notas:
(1): Como pudimos ver hace unos días en el curso M de Matemáticas que organizan cada verano Marta Macho y Raúl Ibáñez (fieles colaboradores del Cuaderno en la sección Matemoción), y a los que pido disculpas por el intrusismo de esta entrada.
(2): El sistema de puños propuesto por el egiptólogo Erik Iversen fue replanteado por Gay Robins y más recientemente por John Legon. Según este último autor la cuadricula en la que se basa el canon de proporciones surgiría de dividir el cuerpo en tres partes iguales (6 cuadrados) de las que luego se realizarían otras subdivisiones. En cualquier caso, dado que el objetivo de este artículo es dar a conocer que el arte egipcio empleaba un sistema de proporciones basado en una cuadricula, se ha decidido mantener el concepto de puño.
Para saber más:
Gay Robins “Proportion and Style in Ancient Egyptian Art” University of Texas Press (1993).
Joan Kee “To Scale” Wiley-Blackwell (2016).
Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.
El artículo Hesiré o las proporciones en el arte antes del número áureo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Arte & Ciencia: Los objetos también tienen biografía
El arte y la ciencia son dos formas de conocimiento aparentemente alejadas, en gran medida consecuencia de la especialización profesional y la educación compartimentada. Del estudio de esta impostada separación surgió el estereotipo de las dos culturas, las ciencias y las humanidades, para referirnos a esa brecha de conocimiento. La realidad es que la ciencia y el arte sí están conectadas y que ninguna forma de conocimiento es impermeable a otra. Por poner algunos ejemplos: ¿Cómo podría crearse una obra plástica sin las técnicas propiciadas por la ciencia? ¿Cómo podríamos interpretar la elección de materiales?
Estas y otras cuestiones relacionadas furon tratadas por destacados profesionales -artistas, ilustradores, filósofos y científicos- que han puesto el foco en ese difuso trazo que une la ciencia y el arte. El ciclo Ciencia & Arte se desarrolló, bajo la dirección de Deborah García Bello, a lo largo de cuatro jornadas que se celebraron los jueves días 6 y 27 de abril y 11 y 25 de mayo de 2017 en el auditorio del Museo Guggeheim Bilbao.
Esta actividad de la Cátedra de Cultura Científica de la UPV/EHU se enmarca en el programa TopARTE que conmemora el XX Aniversario del Museo Guggenheim Bilbao.
Jornada 4. 1ª Conferencia
Jacobo Castellano es artista plástico: Los objetos también tienen biografía
El conocimiento científico es una herramienta esencial para averiguar el origen de las obras de arte y entender los motivos que provocaron el trabajo de un artista. El análisis de los materiales empleados para realizar una escultura o de la composición de las pinturas presentes en un cuadro nos permiten ahondar en las propias obras, encontrar su sentido y delimitar el ideario del artista. Por otro lado, el arte también ha jugado un papel fundamental como impulsor de progreso en las cuestiones comúnmente atribuidas a las ciencias, como son las medioambientales o las sociales.
''Los objetos también tienen biografía''Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Arte & Ciencia: Los objetos también tienen biografía se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Lo que Yellow Mellow oculta sobre los chemtrails
Uno de los últimos vídeos de Yellow Mellow trata de las cinco teorías conspirativas que DAN MÁS MIEDO. De los chemtrails a los illuminati, da un repaso muy divertido y loco a unas cuantas historias alternativas a los hechos. En un minuto, Yellow Mellow nos cuenta lo esencial sobre chemtrails: la explicación racional, la explicación alternativa y qué sentido tendría la conspiración chemtrailiana. Podéis ver el vídeo en este enlace y pasar un buen rato con esta maravillosa chica.
Desde el principio nos hace esta advertencia que transcribo: «Los hechos que os voy a contar son teorías conspirativas, ¡teorías! No estoy diciendo, en ningún momento, que yo me las crea. Y tampoco estoy diciendo, en ningún momento, que estos sean hechos reales».
Nos lo cuenta de la siguiente manera:
«Los chemtrails son esos rastros que dejan los aviones por el cielo. A veces no hay ni uno. A veces dos o tres. A veces hay como quince en muy poco espacio. La explicación oficial que se da a esto es que simplemente son rastros de los aviones comerciales que pasan por el cielo a diario. Hay rutas en las que pasan más aviones que en otras. Así que esa es la explicación. No hay nada raro. No pasa nada.
Pero el dato alternativo es que esos rastros que dejan los aviones son gases químicos que dejan ir algunos aviones que no son comerciales para que vayan cayendo lentamente sobre la población y que provocan enfermedades. Básicamente la teoría dice que nos están gaseando. Estos gases pueden provocar desde ligeros dolores de cabeza, refriados comunes, hasta cáncer —frunce el ceño—.
¿Por qué se dice esto? ¿Cuál es la razón? Pues, ¿tú qué haces cuando estás enfermo? Vas al médico, el médico te receta medicina, vas a la farmacia a comprar esa medicina. Si no estuvieses enfermo, ese proceso no lo harías y, por tanto, no irías a la farmacia a gastarte el dinero.
Pues bien. Se dice que estos gaseamientos por parte de organizaciones potentes, gobiernos, sociedades de las que hablaremos más adelante —se refiere a los illuminati—, ¿por qué están haciendo esto? Pues para beneficiar a la industria farmacéutica. Nos están enfermando para enriquecer a la industria farmacéutica. Esto es lo que cuenta la teoría».
Este vídeo me hizo recordar el artículo de John Cook, «La teoría de la inoculación: usar la desinformación para combatir la desinformación» que fue publicado en este medio. Una de las cosas que está haciendo Yellow Mellow —imagino que intuitivamente, aunque no lo sé— es seguir la estrategia de John Cook para vacunarnos contra la desinformación.
John Cook dice en su trabajo que, cuando nos exponemos a una forma débil de un virus, creamos inmunidad al virus real, y esto lo aplica al conocimiento. Cuando estamos expuestos a una “forma débil de desinformación”, esto nos ayuda a crear resistencia para que no seamos influenciados por la desinformación real. Para ello son necesarios dos elementos, precisamente los mismos que Yellow Mellow nos ofrece en este vídeo: Primero, incluye una advertencia explícita sobre el peligro de ser engañado por la desinformación. En segundo lugar, proporciona contraargumentos que explican los fallos en esa desinformación.
De esta manera, los hechos alternativos que Yellow Mellow nos cuenta a continuación, pasan a resultarnos más rocambolescos, incluso risibles. También ayuda que utilice otra poderosa herramienta que domina a la perfección: el humor.
Los aviones obtienen la energía para desplazarse de la quema de combustibles fósiles. Cuando se produce la combustión, expulsan un gas que está muy caliente que contiene vapor de agua y que se condensa rápidamente cuando entra en contacto con el aire frío que hay a esas alturas. Por eso dejan tras de sí esas estelas llamadas contrails —no chemtrails—. Estas estelas no siempre se pueden observar, ya que este fenómeno de condensación depende de las condiciones atmosféricas: presión, temperatura y humedad. De hecho, que persistan esas estelas significa que en las capas altas de la atmósfera está entrando humedad y, previsiblemente, eso implica que esa humedad viene de alguna borrasca. Si estamos en otoño o invierno, son indicativo de que al día siguiente es probable que llueva.
Yellow Mellow nos explica la justificación más inverosímil de todas las posibles: envenenarnos para enriquecer a la industria farmacéutica. Pero existen otras muchas razones, igual de inverosímiles, con cierto grado de relación con la realidad. Una de ellas nos dice que los chemtrails se utilizan para manipular el clima. Es decir, que en lugar de pensar que la persistencia de las estelas es consecuencia de la humedad atmosférica o de la entrada de una borrasca inminente, se piensa lo contrario, que las estelas son las que provocan las lluvias, no la consecuencia de estas.
En la naturaleza, las nubes se forman cuando el vapor de agua superenfriado se condensa y luego se congela en partículas, llamadas núcleos de hielo, hechas de polvo e incluso de bacterias. Las gotitas de agua pura no pueden formar un núcleo de cristal de hielo hasta que la temperatura descienda a -40 ° C. Sin embargo, si las nubes contienen partículas de aerosol, las moléculas de agua pueden utilizar las superficies sólidas de estas semillas para organizarse en una forma cristalina a temperaturas mucho más cálidas, de -20 a -5 ° C.
En 1971, el científico atmosférico Bernard Vonnegut, publicó un artículo en la prestigiosa revista Nature sobre cómo sembrar nubes empleando diferentes sales de plata, como bromuro y yoduro de plata. El yoduro de plata es un buen agente de nucleación debido a que su red cristalina hexagonal es casi idéntica a la red que las moléculas de agua forman en el hielo y los copos de nieve. Las moléculas de agua adyacentes a la sal de plata tienden a pegarse (nucleación), cristalizando a su alrededor dando lugar a la formación de partículas de hielo. Si hay crecimiento suficiente, las partículas se vuelven lo suficientemente pesadas como para caer en forma de nieve (o, si se fusionan, en forma de lluvia). De otro modo no producen precipitación.
Teóricamente esto tiene sentido, pero todavía no sabemos lo suficiente sobre las estructuras del agua cuando se va produciendo su cristalización como hielo, particularmente cuando este proceso ocurre en las superficies de otros materiales como el yoduro de plata. La nucleación de hielo es difícil de probar experimentalmente porque los actuales instrumentos no producen imágenes claras de moléculas individuales a medida que se congelan. No se conocen los procesos y es muy complicado estimar qué parte de las precipitaciones son provocadas artificialmente y qué parte se producirían de forma natural. Las estimaciones actuales más optimistas hablan del aumento de un 10% en las precipitaciones de cada nube sembrada artificialmente.
La realidad es que hacer que llueva es, de momento, más magia que ciencia. Es necesario seguir investigando para entender si la práctica funciona, cómo optimizarla y cuáles serían sus impactos ambientales, sociales y políticos.
Quizá los chemtrails que los illuminati tratan de ocultarnos, y con los que de paso nos enferman, sean los verdaderos responsables del cambio climático. Yo no lo creo. Yellow Mellow me ha vacunado contra la desinformación.
Este post ha sido realizado por Deborah García Bello (@Deborahciencia) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Lo que Yellow Mellow oculta sobre los chemtrails se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Con los edulcorantes artificiales (casi) todo son ventajas
Conocemos los efectos sobre la salud del consumo excesivo de azúcar. Aun así, nos resulta difícil desterrar el sabor dulce de la dieta una vez nos hemos acostumbrado a él. En artículos anteriores hemos analizado algunos posibles sustitutos, como el azúcar moreno, la miel y los siropes. Ninguno de ellos resultó ser mejor que el azúcar común.
Otra posibilidad que nos planteamos es sustituir el azúcar por edulcorantes acalóricos. Ya hemos hablado de la estevia comercial y los polialcoholes. Ahora toca informarse sobre los principales edulcorantes artificiales.
Todos los edulcorantes artificiales que encontramos en el mercado están catalogados como aditivos alimentarios. Esto implica que además del su nombre común (como sacarina o aspartamo) tienen su propia denominación como aditivos, con su correspondiente número E. Esto es importante porque significa que cada una de esas sustancias ha sido debidamente analizada antes de comercializarse y ‘ganarse’ su número E.
Hay intereses de diferente naturaleza que han llevado a publicar informaciones alarmantes sobre estas sustancias, incluso llegando a relacionarlas con el cáncer, y que, desgraciadamente siguen circulando y avivando las dudas de los consumidores. No hay nada que temer, salvo la desinformación deliberada.
Se han revisado cientos de estudios de seguridad llevados a cabo sobre cada edulcorante, incluidos estudios para evaluar el riesgo de cáncer. Los resultados de estos estudios no mostraron evidencias científicas de que estos edulcorantes causen cáncer o de que presenten cualquier otra amenaza para la salud humana. Cualquier información que contradiga esta afirmación es falsa.
Veamos algunos datos importantes sobre los principales edulcorantes artificiales:
-
Sacarina
La sacarina se sintetizó por primera vez en 1879 y comenzó a popularizarse durante la I Guerra Mundial, a causa de la escasez de azúcar. Es el aditivo E 954. Es entre 300 y 500 veces más dulce que el azúcar y no se metaboliza, se absorbe tal cual y es eliminado rápidamente a través de la orina. No aporta ninguna caloría.
-
Ciclamato
El ciclamato sódico se descubrió en 1937 y tiene un poder edulcorante entre 50 y 100 veces superior al azúcar. Es el aditivo E 952. No suele comercializarse solo, sino como edulcorante presente en bebidas y alimentos. Su absorción es mínima y se elimina por la orina.
-
Acesulfamo K
Se sintetizó por primera vez en 1967 y es unas 200 veces más dulce que el azúcar. Es el aditivo E 950. El principal inconveniente es organoléptico, ya que deja un regusto metálico en la boca si no se combina con otros edulcorantes como el aspartamo y la sucralosa. La principal ventaja es que es estable al calor, por eso se utiliza en productos horneados. Tampoco se metaboliza, con lo que se elimina íntegramente a través de la orina.
-
Sucralosa
Se descubrió en 1976. Es el aditivo E 955 y tiene un poder edulcorante 600 veces mayor que el azúcar. La principal ventaja es que resiste altas temperaturas, como el acesulfamo, y juntos generan un efecto sinérgico que aumenta el dulzor.
-
Aspartamo
Fue descubierto casualmente en 1965. Es el aditivo E 951, con un poder edulcorante 200 veces mayor que el azúcar. El aspartamo es el edulcorante que peor prensa ha tenido (y sigue teniendo). Sobre él se han publicado estudios fraudulentos que, a pesar de haber sido retractados, permanecen en nuestra memoria y hacen dudar al consumidor. Tanto es así, que algunas empresas han decidido dejar de utilizar este edulcorante por culpa de la presión mediática.
La compañía PepsiCo sufrió una caída del 5% de sus ventas en uno de sus buques insignia, la Pepsi Light. La razón fue que su contenido en aspartamo era percibido por parte de los consumidores como un riesgo para la salud.
El aspartamo está formado por la unión de dos aminoácidos naturales y habitualmente presentes en muchísimos alimentos, la fenilalanina y el ácido aspártico. En su degradación metabólica se obtienen ambos aminoácidos por separado. Ninguna de estas sustancias, juntas o separadas, son perjudiciales para la salud en un consumo normal. Pero sí puede afectar a personas con una enfermedad metabólica llamada fenilcetonuria. Por este motivo los alimentos con aspartamo incluyen en su etiqueta la siguiente advertencia: «fuente de fenilalanina». Para los que no padecemos esta enfermedad, el aspartamo no supone ningún riesgo.
-
¿Todo son ventajas?
La principal ventaja es que todos los edulcorantes artificiales son seguros. A diferencia de los polialcoholes, no se ha demostrado que afecten a la microflora intestinal ni tienen efectos laxantes, como sí ocurre con los productos comerciales actuales de estevia, hechos a base de eritritol.
Además, el sabor y el dulzor de unos y otros es diferente, lo que permite que cada cual escoja el que más le guste, y que los fabricantes utilicen uno o varios hasta llegar a un sabor que, en muchos casos, resulta difícilmente distinguible del azúcar.
Tienen un índice glucémico nulo, con lo que no afectan a los niveles de glucosa en sangre, pudiendo ser consumidos por personas con diabetes.
A estas ventajas hay que sumar la que suele resultarnos más interesante: ninguno de estos edulcorantes artificiales aporta calorías.
-
Casi todo son ventajas
Si no engordan ni son perjudiciales para la salud, evidentemente son la mejor opción de todas para sustituir el azúcar. En cambio, todo lo referente a la alimentación no puede analizarse sin tener en cuenta las conductas de consumo.
Algunas líneas de investigación actuales se centran en el estudio del consumo de alimentos con edulcorantes artificiales y su relación con la obesidad. Puede parecer contradictorio, pero la realidad es que sí existe relación, aunque no exista un consenso sobre cómo sucede. Hay varios factores que afectan, como que el consumo de edulcorantes está relacionado con malos hábitos alimenticios, con una peor gestión del apetito y con la falsa percepción de un menor consumo calórico global.
-
Conclusiones
Los edulcorantes artificiales son los mejores sustitutos del azúcar. Son los mejores si, y sólo si, se usan dentro de una dieta saludable. Esta matización es importante porque, que un alimento contenga edulcorantes artificiales en lugar de azúcar, no lo convierte en un alimento saludable. Un alimento ultraprocesado, como galletas, bollería industrial, panes industriales, zumos industriales, etc. generalmente son alimentos de baja calidad nutricional, contengan azúcar o edulcorantes. La calidad de un alimento estriba en el alimento completo, no en sus ingredientes individuales. Por ejemplo, una galleta sin azúcar seguirá siendo un alimento poco recomendable si contiene harinas refinadas o grasas de baja calidad.
Si seguimos una dieta saludable, rica en materias primas de calidad y productos frescos, y nos gusta endulzar el café, el yogur, o tomar un refresco de vez en cuando, los edulcorantes artificiales son una buena opción.
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Con los edulcorantes artificiales (casi) todo son ventajas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Saturno en un vaso de aceite
Si colocamos una gota de líquido en un campo eléctrico y se extiende a lo largo de la dirección del campo, formando chorros que rocían pequeñas gotas líquidas en cada extremo. Ahora Quentin Brosseau y Petia Vlahovska trabajando en la Universidad de Brown (EE.UU), han descubierto un nuevo comportamiento donde, en lugar de chorros, la gota produce anillos de líquido en su ecuador, tomando una forma parecida al planeta Saturno.
Aparte de la curiosidad, ¿esto sirve para algo? Probablemente sí, pero esto acaba de descubrirse con lo que necesitaremos algún tiempo. Pero vayamos por partes.
La pulverización en chorros se produce cuando la gota se llena con un líquido que es más conductor que el fluido en el que está suspendido. Cuando se aplica un campo eléctrico el líquido en la superficie de la gota fluye desde el ecuador hasta los polos. Como resultado la gota se extiende a lo largo del eje polar, de modo que se asemeja a un balón de fútbol americano con dos conos puntiagudos en cada extremo. Las interfaces puntiagudas son inestables y hay pequeñas gotas de líquido que escapan continuamente. Este comportamiento es muy importante en algunas aplicaciones con las que estamos muy familiarizados: se produce en las nubes de tormenta y en las impresoras de chorro de tinta. En estos casos las gotas de líquido son más conductoras que el aire en el que están suspendidas.
En sus experimentos, Brosseau y Vlahovska invirtieron los términos usando una gota de aceite de silicio que era menos conductora que el fluido circundante de aceite de ricino. Esta vez, el líquido en la superficie fluyó al ecuador de la gota en lugar de a sus polos, haciendo que la gota de tamaño milimétrico se aplanara hasta adoptar la forma de una lente.
Al igual que en el caso anterior más la interfaz de la gota era inestable, arrojando finos anillos de líquido que posteriormente se rompían en microgotas de unos 10 micrómetros de tamaño. Este desprendimiento continuó durante unas pocas decenas de segundos hasta que la gota original se transformó en miles de microgotas de tamaño uniforme.
Este fenómeno aún no se entiende completamente desde el punto de vista teórico. Pero los científicos pueden especular con lo que han visto de momento. El proceso podría utilizarse para dosificar con precisión fármacos en partículas líquidas diminutas o para crear miles de microrreactores para experimentos de química de alto rendimiento. ¿Quién sabe? Lo mismo dentro de 10 años usamos un dispositivo de forma rutinaria que se base en este fenómeno y ni lo sepamos, como pasa hoy día con las impresoras.
Referencia:
Quentin Brosseau and Petia M. Vlahovska (2017) Streaming from the Equator of a Drop in an External Electric Field Phys Rev. Let. doi: 10.1103/PhysRevLett.119.034501
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
Este texto es una colaboración del Cuaderno de Cultura Científica con Next
El artículo Saturno en un vaso de aceite se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El diablo y Simon Flagg, una lectura ligera para el verano
Esta entrada del Cuaderno de Cultura Científica aparece justo en el ecuador del verano, a punto de terminar el mes de julio y de empezar el mes de agosto. Por este motivo, me ha parecido interesante traer a este espacio la recomendación de una lectura ligera, un cuento de apenas dos páginas, cuyo título es El diablo y Simon Flagg (1954), del escritor de ciencia ficción y matemático Arthur Porges (1915-2006).
En agosto de 2015, en la entrada titulada La chica que soñaba con una cerilla y un bidón de gasolina mostrabamos un ejemplo de una novela, y no una novela cualquiera, sino todo un bestseller, La chica que soñaba con una cerilla y un bidón de gasolina, del escritor sueco Stieg Larsson, en la cual aparecían algunas referencias a un resultado de la matemática teórica, exactamente de la teoría de números, el conocido como el último teorema de Fermat. De hecho, su protagonista Lisbeth Salander se pasaba toda la novela intentando probar dicho teorema, consiguiéndolo justo en las últimas páginas del libro.
En ese tiempo, estaba yo preparando mi artículo Avatares literarios del último teorema de Fermat, en el cual se realiza un recorrido por este resultado matemático, su historia y las diferentes reflexiones que el mismo ha motivado en la cultura y la sociedad, a través de más de cuarenta relatos y novelas que lo han incorporado a sus páginas, ya sea a través de sencillas referencias o como una parte fundamental de su argumento.
Pero expliquemos brevemente en qué consiste este resultado de la teoría de números, como ya se hacía en la entrada del Cuaderno de Cultura Científica que acabo de mencionar.
Leyendo el libro Arithmetica de Diofanto, el matemático francés Pierre de Fermat se planteó si, al igual que la ecuación del teorema de Pitágoras, , se cumplía para ternas de números enteros positivos, como (3, 4, 5), (5, 12, 13) o (8, 15, 17), las conocidas como ternas pitagóricas, también sería posible encontrar ternas de números enteros positivos que cumplieran la ecuación de Pitágoras, pero con potencias cúbicas, , e incluso para potencias mayores que tres, , con . Fermat había escrito en uno de los márgenes del libro de Diofanto la siguiente frase (aunque en latín) “Tengo una prueba verdaderamente maravillosa para esta afirmación, pero el margen es demasiado estrecho para contenerla”. Sin embargo, no dejó escrita en ningún lugar, o no se encontró nunca, esa demostración.
A pesar de la afirmación de Fermat, y de que infinidad de matemáticos y matemáticas de todo el mundo intentaron desde entonces demostrar que no existían soluciones, con números enteros positivos, de la ecuación , para , no fue posible demostrar completamente el conocido como “último teorema de Fermat” hasta que Andrew Wiles mostró su demostración al mundo en 1995, eso sí, con unas técnicas muy sofisticadas que no existían en la época de Fermat, 350 años antes.
Pero lo curioso del último teorema de Fermat, es que siendo un resultado de la matemática teórica, de esos que parecen un juego matemático sin ningún tipo de interés para la sociedad, ni aplicación a la vida real, terminó fascinando a la sociedad y calando en el arte y la cultura, principalmente tras la demostración de la conjetura en 1995.
Detrás del teorema matemático, y su demostración, se encontraba una historia fascinante, romántica y cautivadora, con los ingredientes necesarios para ser una buena historia: el resultado está escrito en el margen de un libro, su autor no es matemático de profesión sino jurista, la prueba mencionada en el margen no aparece, los grandes matemáticos fracasan uno tras otro en su intento de demostrarlo, un suicidio frustrado por la pasión puesta en el reto matemático, el teorema de indecibilidad de Gödel planea dudas sobre la existencia de una demostración, miles de aficionados tratan a su vez de resolver lo que los profesionales no han logrado, y cuando al fin surge un matemático prodigioso que anuncia la resolución, el propio Wiles, aparece un error en la prueba que tardará un año en ser corregido. Todos estos elementos, y algunos más, han conseguido fascinar a muchas personas. Esta era una historia con una gran fuerza narrativa y la literatura lo vio claro, incorporándola a sus páginas.
Como se decía en la novela en Londres después de la medianoche (Seix Barral, 2014), del escritor mexicano Augusto Cruz, “imposible no sentirse fascinado por la historia del último teorema de Fermat”.
Antes de la llegada de la demostración de Andrew Wiles, mientras que la comunidad matemática trabajaba sin descanso para demostrar la conjetura de Fermat que había sido formulada hacía trescientos años, la sociedad se quedó con la idea de que era un resultado extremadamente difícil de resolver, o incluso, imposible. Esta idea caló profundamente en la literatura. De hecho, en esta pequeña recomendación veraniega que traemos hoy aquí, se jugaba, en clave de humor, con la idea de que era un resultado matemático que no tenía solución.
En el relato de Arthur Porges, El diablo y Simon Flagg (1954), el matemático Simon Flagg reta al diablo a que le conteste a una pregunta difícil en menos de 24 horas, si lo hace se puede quedar con su alma, si no le dará 100 mil dólares al matemático. Y la pregunta no es otra que “¿Es cierto el último teorema de Fermat?”.
Pasado el tiempo, el diablo le contesta a Simon, “Tú ganas, Simón —dijo casi en un susurro, mirándolo con un respeto absoluto—. Ni siquiera yo puedo aprender en tan poco tiempo las matemáticas requeridas para un problema tan difícil. Cuanto más indago sobre él, más difícil se torna”. Y para enfatizar dicha dificultad añade “¿Sabes —confió el diablo— que ni siquiera los mejores matemáticos de otros planetas, todos mucho más avanzados que el tuyo, lo han resuelto? Vamos, hay un tipo en Saturno semejante a una seta con zancos que resuelve mentalmente ecuaciones diferenciales en derivadas parciales; y hasta él ha desistido”. A pesar de haber perdido la apuesta, el diablo finalmente se queda enganchado con este problema matemático y continúa intentando resolverlo.
Preparando mi artículo Avatares literarios del último teorema de Fermat, en el que podéis leer sobre la presencia del teorema de Fermat en la narrativa, descubrí una traducción al castellano, que está accesible en versión digital, del relato de Arthur Porges, originalmente escrito en inglés, que os traigo aquí como recomendación literaria para una tarde de verano. Este relato fue traducido y publicado en la Revista Extensión (México), en 1981, y digitalizado por la Universidad Veracruzana.
Esta es, por lo tanto, mi recomendación para una tarde de verano…
El diablo y Simon Flagg [PDF]
Bibliografía
1.- Raúl Ibáñez, Avatares literarios del último teorema de Fermat, Revista Epistémocritique (enviado para su publicación), 2017.
2.- Stieg Larsson, La chica que soñaba con una cerilla y un bidón de gasolina (serie Millenium, 2), Destino, 2008.
3.- Augusto Cruz, Londres después de la medianoche, Seix Barral, 2014.
4.- Arthur Porges, El diablo y Simon Flagg, Revista Extensión (México), n. 15, p. 22-23, 1981 (versión en castellano, el original es de 1954). Versión digital aquí.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo El diablo y Simon Flagg, una lectura ligera para el verano se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Evolución de los sistemas nerviosos: el tronco encefálico y el cerebelo
Panorama general del encéfalo de vertebrados
Como vimos en una anotación anterior, en el encéfalo de vertebrados puede diferenciarse un conjunto de estructuras en función de su origen embriológico. No obstante, siguiendo un criterio funcional, en el encéfalo adulto se consideran tres grandes áreas que no se corresponden exactamente con las anteriores. Son:
(1) el tronco encefálico, en el que se encuentran (1.1) la medulla oblongata o médula (correspondiente al diencéfalo embrionario), (1.2) el puente (procedente del metencéfalo embrionario) y (1.3) el mesencéfalo (que se corresponde al área embrionaria del mismo nombre) y que está integrado por el tectum y el tegmentum;
(2) el cerebelo que, junto con el puente, procede del metencéfalo; y
(3) el encéfalo anterior o prosencéfalo. Este último está, a su vez, integrado por: (3.1) el diencéfalo, que incluye (3.1.1) el tálamo y (3.1.2) el hipotálamo; y (3.2) el cerebro, que está formado por (3.2.1) los núcleos basales y (3.2.2) la corteza cerebral.
La lista anterior sigue una secuencia de abajo arriba, empezando por lo que se encuentra en la zona inferior del encéfalo y acabando con lo que se encuentra en la superior. Si se tratase de animales con una disposición corporal horizontal, habría que sustituir superior por anterior, e inferior por posterior. La lista refleja, además, una secuencia evolutiva: empieza por lo más antiguo y termina por lo que se ha desarrollado más recientemente. Con la excepción de los agnatos (sin mandíbula), todos los vertebrados comparten esa configuración, si bien el grado de desarrollo varía entre ellos.
Dedicaremos esta entrada a repasar el tronco encefálico y el cerebelo; y dejaremos las regiones del encéfalo anterior para más adelante.
El tronco encefálico
Es la estructura más simple del encéfalo y tiene una antigüedad de cerca de 500 millones de años. Establece la conexión entre el resto del encéfalo y la médula espinal. Aunque hay fibras que simplemente pasan a través del tronco, la mayor parte de ellas establecen conexiones sinápticas en su interior, por lo que interviene en importantes procesos, como son:
1. Procesos sensoriales y respuestas motoras en los que intervienen los llamados nervios craneales, con la excepción de los nervios olfatorio y óptico, que siguen trayectorias independientes. Por lo tanto, participa en el procesamiento de información sensorial procedente de la cabeza y en las respuestas dirigidas a sus órganos efectores.
2. Control reflejo del corazón, vasos sanguíneos, respiración y digestión. Este conjunto de funciones son las que participan en el mantenimiento de la constancia de las características del medio interno (homeostasia).
3. Modulación de las sensaciones de dolor.
4. Regulación de los reflejos musculares implicados en el equilibrio y el mantenimiento de la postura corporal.
5. Modulación de la actividad general del encéfalo a través de la formación reticular, red difusa de neuronas que forma parte del tronco encefálico. La formación reticular recibe múltiples inputs sinápticos y envía señales a la corteza cerebral para activarla o generar un estado de atención. El conjunto de vías ascendentes por las que se envían esas señales se denomina sistema de activación reticular.
6. Aunque tradicionalmente se había pensado que los centros responsables del sueño se encontraban en el tronco encefálico, la evidencia más reciente sugiere que tales centros se localizan en el hipotálamo.
El cerebelo
En todos los vertebrados que tienen cerebelo, éste tiene un conjunto similar de circuitos. En mamíferos y aves consiste de tres partes funcionalmente diferentes, que probablemente han experimentado una aparición secuencial a lo largo de la evolución de estos grupos. Cada una de ellas cumple ciertas funciones, pero en conjunto, su tarea consiste en el control inconsciente de la actividad motora.
El vestibulocerebelo se ocupa del mantenimiento del equilibrio y controla el movimiento de los ojos.
El espinocerebelo mejora el tono muscular y coordina los movimientos voluntarios para los que se requiere destreza. Esta región es especialmente importante para asegurar una adecuada ejecución temporal de las contracciones musculares en las que intervienen varias articulaciones. Recibe inputs de receptores periféricos que dan cuenta de los movimientos corporales y de las posiciones de cada momento. Actúa comparando las “órdenes” de los centros motores de la corteza con la ejecución real a cargo de los músculos, y corrigiendo las desviaciones o errores que se producen. Es incluso capaz de predecir la posición que tendrá una parte del cuerpo en el instante próximo y realizar los correspondientes ajustes.
El cerebrocerebelo interviene en la planificación y comienzo de los movimientos voluntarios, enviando señales a las correspondientes áreas corticales. También está implicado en las memorias de procedimiento, que son las que contienen la información relativa a movimientos aprendidos a base de entrenamiento repetitivo.
Fuente: Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Evolución de los sistemas nerviosos: el tronco encefálico y el cerebelo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La fe en las leyes de conservación
La ley de conservación de la energía ha tenido un éxito enorme. Se cree tan firmemente que parece casi imposible que cualquier nuevo descubrimiento pueda refutarla. Sin embargo, en algunos experimentos, la energía parece aparecer o desaparecer en un sistema, sin que pueda ser explicado el fenómeno por cambios en formas conocidas de energía macroscópica. Por ejemplo, a medida que se añade calor a un cubo de hielo que está fundiéndose la temperatura del cubito de hielo no aumenta. En casos como este, históricamente los científicos han preferido asumir que el calor añadido toma la forma de una especie de energía aún no investigada, en lugar de considerar seriamente la posibilidad de que la energía no se conserva [1].
Así, el filósofo alemán Leibniz propuso en su momento que la energía podría ser disipada entre “las pequeñas partes” de los cuerpos. Avanzó esta idea específicamente para mantener el principio de conservación de energía en colisiones inelásticas y en procesos donde hay fricción. La fe de Leibniz en la conservación de la energía estaba justificada. Posteriormente se demostró que la “energía interna”, almacenada como movimiento de las partículas submicroscópicas en el material con el que se experimenta, cambió la cantidad exacta para explicar los cambios observados en la energía externa, como es el caso de un cubo de hielo que se funde.
Otro ejemplo similar es la “invención” del neutrino por Wolfgang Pauli en 1930. Los experimentos habían sugerido que la energía desaparecía en ciertas reacciones nucleares. Pauli propuso que en estas reacciones se producía una partícula subatómica desconocida e indetectable (con la tecnología disponible en aquel momento), que Enrico Fermi llamó el “neutrino”. Pauli propuso que el neutrino portaba parte de la energía. Los físicos aceptaron la teoría de los neutrinos durante más de 20 años, sin que se demostrase su existencia experimentalmente. Finalmente, en 1956, los neutrinos fueron detectados en experimentos con la radiación de un reactor nuclear. De nuevo, la fe en la ley de conservación de la energía resultó estar justificada.
La idea de “conservación” es tan poderosa en ciencia que los científicos creen que siempre estará justificada. Cualquier aparente excepción a la ley se entenderá tarde o temprano de una manera tal que no nos obligue a renunciar a la ley. A lo sumo, estas excepciones podrán conducirnos a descubrir nuevas formas de materia o energía, haciendo que la ley sea aún más general y poderosa [2].
El matemático y filósofo francés Henri Poincaré expresó esta idea en 1903 en su libro La Science et l’Hypothèse:
. . . el principio de conservación de la energía significa simplemente que hay algo que permanece constante. De hecho, sin importar las nuevas nociones que las experiencias futuras nos den del mundo, estamos seguros de antemano que habrá algo que permanecerá constante, y a lo que podremos llamar energía.
El descubrimiento de qué se conserva en la naturaleza constituye la colección [3] de logros más importante de las ciencias físicas. De hecho, estas leyes de conservación constituyen poderosísimas herramientas de análisis y todas afirman que, pase lo que pase en un sistema de cuerpos en interacción, ciertas propiedades medibles permanecerán constantes mientras el sistema permanezca aislado
Notas:
[1] A este respecto pude ser interesante leer El tribunal de la experiencia sobre el concepto de hipótesis auxiliar.
[2] La teoría de la relatividad y los estudios de las reacciones nucleares, como en el caso del neutrino, permitió generalizar la ley de conservación de la energía a la ley de conservación de la masa-energía, siendo masa y energía dos formas equivalentes según E = mc2, donde c es la velocidad de la luz en el vacío. Esto no es más que una generalización de la primera ley de la termodinámica.
[3] La colección se ha ampliado en las últimas décadas gracias a los avances en física de partículas. Esta es una lista parcial de las leyes de conservación conocidas. Hay otras candidatas pendientes de más datos.
Masa-Energía.
Momento lineal.
Momento angular.
Carga eléctrica.
Carga de color.
Isoespín débil.
Probabilidad.
Simetría CPT.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo La fe en las leyes de conservación se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Ingredientes para la receta: El maíz
“Únicamente masa de maíz entró en la carne de nuestros padres, los cuatro hombres que fueron creados.”
Popol Vuh, Libro Sagrado de los Mayas.
El maíz, de nombre científico Zea mays, pertenece a la familia Graminiae, y es, por tanto, una gramínea como el arroz, el trigo, el centeno o la avena. Es el cereal más importante de la dieta en Latinoamérica y en África, y el segundo cereal más cultivado en el planeta. Proviene de América, donde mantiene una gran diversidad de tipos y es su centro Vavilov. Llegó a la templada Europa y a Asia y África en los siglos XVI y XVII. Era un alimento seguro y barato y lo fue durante siglos, sobre todo en Europa central. También alimentaba a los esclavos en el tráfico de África hacia América.
En el siglo XX, la producción de maíz aumentó con la mejora en las semillas, los regadíos, los nuevos abonos, los pesticidas y los nuevos usos del cereal en la industria y en la dieta. En Europa y Norteamérica, las cosechas se doblaron y, después, se triplicaron. Es una planta con facilidad para adaptarse a diferentes entornos, gran poder energético y fácil cosecha. En muchos países en desarrollo está desplazando a cultivos tradicionales más problemáticos.
Es, también, uno de los principales cultivos para alimentar al ganado. Es más, en la actualidad se siembra sobre todo para su uso como pienso. Ellen Messer afirma que solo un quinto del maíz sembrado va a la dieta humana, dos tercios son para el ganado y un décimo para alimentos procesados e, incluso, para productos que no se usan en alimentación.
El maíz crece entre los 50º de latitud norte, en Rusia y Canadá, hasta casi los 50º de latitud sur, en Sudamérica. Lo hace a altitudes bajo el nivel del mar, en las llanuras del mar Caspio, hasta los 3600 metros de altura, en los Andes del Perú, y con precipitaciones desde 250 mililitros, en Rusia, hasta más de 10000 mililitros, en la costa de Colombia hacia el Pacífico, y con tiempos de crecimiento que van de los 3 a los 13 meses.
Las variedades del maíz tienen características a veces muy diferentes. Las plantas tienen de 70 centímetros a 6 metros de altura, de 8 a 48 hojas por planta, de 1 a 15 troncos por semilla sembrada, con mazorcas de 7 a 70 centímetros de longitud. Además, tienen diferentes distribuciones geográfica, climática y de resistencia a las plagas. Como dijo algún experto hace décadas, los primeros que cultivaron el maíz crearon “una de las plantas cultivadas más heterogéneas que existen.”
El rendimiento es de 2.5 toneladas por hectárea de media en los países en desarrollo hasta las 6.2 toneladas por hectárea en los países industrializados. Es en el Medio Oeste de Estados Unidos donde, desde el final de la Segunda Guerra Mundial, se cosecha más de la mitad de la cosecha mundial de maíz. En el año 2008 fueron algo más de 300 millones de toneladas. El segundo productor mundial es China, y el tercero Brasil. Entre Estados Unidos, China, Francia, Argentina, Hungría y Thailandia controlan el 95% del comercio mundial de maíz que varía entre 60 y 70 millones de toneladas, la mayoría para alimentación animal. España, en 2008, produjo algo más de 3.5 millones de toneladas.
El maíz sigue siendo un componente importante en la dieta en las regiones en que se domesticó: México, América Central, el Caribe y en los Andes en Sudamérica. Y se ha convertido en un componente esencial de la dieta en África Oriental, en parte de Indochina y en algunas regiones de China. El consumo más alto por persona es de casi 100 kilogramos al año en México, Guatemala y Honduras, donde se prepara como tortillas. En estas regiones, más África y Rumania, supone el 70% de las calorías de la dieta. En África Oriental se come como gachas.
Sin embargo, como ya he escrito más arriba, el uso más significativo del maíz es como alimento del ganado y, en último término, como carne, leche y otros productos en la dieta humana. En Estados Unidos, más de la mitad del maíz cosechado es para el ganado y en Alemania llega a las tres cuartas partes. En países como Pakistán, India o Egipto, el maíz como pienso para el ganado es más caro que el maíz como alimento humano.
Hay más de 300 variedades de maíz, muchas de ellas con decenas de linajes. Pero su ancestro salvaje sigue siendo un misterio, cada vez más claro por las investigaciones como veremos ahora, pero todavía objeto de debate tanto sobre la especie originaria como sobre la región geográfica donde ocurrió la domesticación.
El origen parece estar en el teosinte, que pueden ser varias subespecies de la especie Zea mays, la misma que el maíz cultivado. Es una hierba de gran porte que crece en México y Guatemala. Ya Vavilov, en 1931, propuso al teosinte como antepasado del maíz. Entre las hierbas conocidas como teosinte hay cuatro con el mismo número de cromosomas que el maíz y que pueden hibridar con él y entre sí.
La mayoría de los expertos en maíz aceptan que se domesticó hace de 7000 a 10000 años en Centroamérica. Pero está en discusión si ocurrió una o más veces en uno a más sitios de esa área geográfica. La diversidad de variedades en México y la no presencia de teosinte en el Perú convencieron a Vavilov de que el origen del maíz estaba en Centroamérica. Por cierto, en la actualidad el teosinte es una planta invasora de los cultivos de maíz en Aragón. Se detectó su presencia a finales de 2014.
El yacimiento de Tehuacan, en Puebla, México, guarda muestras de maíz, con mazorcas de unos 2.5 centímetros de longitud, fechadas hace casi 6000 años, hasta las más recientes, de unos 500 años, y todas ellas sirven para ilustrar la evolución de la planta. Destaca un periodo explosivo de variaciones hace unos 3500 años. En el estrato El Riego de este yacimiento se recuperó la evidencia más antigua que se conoce de uso de maíz silvestre, y está fechada hace 7200-9200 años. Y en el estrato Coxcatlan, de hace 5400-7200 años, ya se encuentra maíz cultivado.
La secuenciación del genoma de una muestra de maíz del yacimiento de Tehuacan, fechada hace 5310 años, por el grupo de Jazmín Ramos, de la Universidad de Copenhague, demuestra que viene de la misma población que fue origen del maíz moderno. Es un maíz más cercano, ya hace 5000 años, al maíz actual que al teosinte.
Uno de los cambios más importantes en la domesticación del maíz es que la planta, en la madurez, no disperse las semillas y permita que queden en la mazorca y, de esta manera, facilita la recolección por el que ha sembrado el maíz. Además, si no dispersa las semillas se convierte en una planta dependiente de quien la siembra, que dispone de granos, que ha cosechado, para repetir la cosecha. El teosinte dispersa las semillas y, en la domesticación, se seleccionó que la planta no lo hiciera como ocurre en el maíz moderno. El maíz recuperado en Tehuacan, de hace 5000 años, todavía mantiene los genes que dispersan las semillas.
Con hallazgos publicados casi continuos se decía , que son tres granos de maíz fechados hace 6250 años los más antiguos encontrados hasta ahora. Aparecieron en el Abrigo de Guila Naquitz, en Oaxaca, México. Dos de los granos recuerdan al teosinte pero el tercero tiene las características del maíz doméstico. O, también, el equipo de Mary Pohl, de la Universidad Estatal de Florida, recuperó restos de maíz en la excavación de San Andrés, en Tabasco, y quedaron fechados hace 7300 años.
Los estudios genéticos de la relación entre maíz y teosinte colocan el origen del cultivo en una población de teosinte del valle del río Balsas, en el Estado de Guerrero, en México. Allí, el grupo de Anthony Ranere, de la Universidad Temple, de Philadelphia, encontró restos de maíz y piedras para moler el grano y producir harina. Entonces, y ahora, en ese valle hay teosinte. Todos los restos están fechados hace 8700 años y, en la actualidad, se consideran los más antiguos conocidos de maíz, superando a los tres granos de Guila Naquitz.
Esta presencia del cultivo del maíz desde hace miles de años en Centroamérica implica que apareció una culinaria relacionada con este cultivo. George Beadle (Premio Nobel en 1958), que durante años estudió la genética y el origen del maíz, escribió que la primera receta para cocinar el maíz, y también el teosinte, serían las palomitas, colocando los granos directamente sobre el fuego, en las brasas o sobre roca o arena calientes. Beadle también sugiere que los granos de maíz se pueden comer crudos después de ablandarlos un tiempo en agua. O molerlos hasta conseguir harina, separando las cáscaras por flotación en agua.
El polen de la planta se ha identificado en yacimientos en Panamá de hace 7000 años, y en la Amazonia de Ecuador fechado hace 6000 años. Estos datos han llevado a algunos autores a proponer un segundo centro de domesticación del maíz en los Andes centrales, hace 6000 a 8000 años, y con variedades diferentes a las habituales en Centroamérica. Sin embargo, recuerdo que el teosinte no aparece en Sudamérica.
Pero fueron los incas los que comían un pastel hecho de sangre de camélidos, de llama en concreto, y harina de maíz. Yawar Zanen los llamaban. Aquí, en el norte de la Península, todavía se elabora un pastel parecido: es el llamado borono. La borona era el pan que se amasaba con harina de otros cereales y no con trigo como, por ejemplo, mijo, cebada o centeno. Pero, llegó el maíz, y el nombre quedó, desde finales del siglo XVI, para el pan de maíz. Pero también tenemos, como decía el borono, una especie de embutido que se obtiene del cerdo y se come en Palencia, Asturias o Cantabria. J.L. Lastras, en el blog El Laboratorio Gastronómico, nos explica como se cocina:
En un barreño grande, mejor si es de barro, ponemos sangre de cerdo, algo de agua para que no endurezca, sal, cebolla bien picada, grasa de cerdo y perejil. Añadimos harina de maíz y, si se quiere, también harina de trigo, y amasamos hasta formar una masa no muy seca. Modelamos la forma del borono, así como gruesa y rechoncha. Ponemos en agua hirviendo y cocemos durante un par de horas. Ya están para comer, si se quiere fritos o, si no, con azúcar y leche.
Como ocurre en los procesos de domesticación, y ya lo adelantó Vavilov, solo una fracción de la biodiversidad del maíz original se llevó, primero, a Norteamérica y hacia Sudamérica (en el siglo XV los europeos encontraron cultivos de maíz en la desembocadura del río San Lorenzo, en Canadá, y en el centro de Chile por el sur), después a Europa y al resto del mundo. Por ejemplo, entre los genomas del teosinte y el maíz ya hay una disminución del 20%, aunque a diferencia de otros organismos domesticados, hay una cierta recuperación por los cruces entre sí de la gran cantidad de variedades de maíz que existen.
El maíz llegó a Europa con Cristóbal Colón en su primer viaje y ya se menciona en 1500 en Sevilla y, rápidamente, se extendió por toda la Península. Colón había encontrado extensos cultivos de maíz en la isla de Cuba cuando llegó el 27 de octubre de 1492. Escribió en su diario que “la tierra es muy fértil y muy labrada de aquellos mames y faxoes y havas muy diversas de las nuestras; eso mismo panizo…”. Ahora llamamos panizo al maíz pero en tiempos de Colón, que no conocía el maíz, era el nombre de una planta, originaria de Oriente, que se parecía al maíz. Colón se lo presentó a los Reyes Católicos en Barcelona en abril de 1493 y “maravilláronse que no hubiese trigo allá, sino que todos comiesen pan de aquel maíz”.
Y después llegó al resto de Europa con la curiosa peculiaridad de que, en casi todos los países, era reconocido como un cultivo extranjero y, de ahí, el nombre que recibía la planta: era romano en algunas regiones de Francia, siciliano en la Toscana, indio en Sicilia, español en los Pirineos franceses, de Guinea en Provenza, de Egipto en Turquía, de Siria en Egipto, de Turquía en Inglaterra o de Gales en Alemania.
Para finales del siglo XVI se conocía y cultivaba en toda Europa. Y en Egipto, Libia y Siria para 1520. O en China para 1555. De América podían llegar de 200 a 300 variedades de maíz que ya se cultivaban, lo que facilitó su adaptación a tan extensa geografía y a muchos entornos diferentes.
Era barato, de fácil cultivo, no requería muchas labores agrícolas y resistía los cambios del tiempo. Pronto se convertiría en la comida de los pobres y así se mantendría durante siglos, como afirma Manuel de Paz, de la Universidad de La Laguna. En la actualidad tiene muy escasa presencia en la dieta de nuestra especie. Pero, como antes comentaba, si abunda en la dieta de nuestro ganado. O en nuestro desayuno donde el maíz es muy popular desde hace unas décadas cuando llegaron a Europa los cereales típicos del “breakfast” de Estados Unidos.
Ya en el siglo XVI, el clima del norte de la Península Ibérica favorecía el cultivo del maíz sobre otros cereales y no tardó en aparecer una cocina basada en el maíz. Al País Vasco, el maíz llegó en el siglo XVI. Todavía no se conoce con exactitud ni cómo ni cuando llegó el maíz al País Vasco, aunque a menudo se menciona a Gonzalo de Parcaiztegui, de Hernani, que fue escribano y alcalde en su pueblo, y fechas de la segunda mitad del siglo XVI. Sin embargo, tal como cuenta Fausto de Arocena, en 1521 hay algún texto que menciona maizales en San Sebastián.
A finales de siglo XIX y principios del XX, y siempre en épocas de escasez, la comida en el caserío, nos cuenta Gurutzi Arregi, se completaba con el maíz preparado como talo, una especie de torta hecha con harina de maíz. En el desayuno, el talo acompañaba la leche, en la comida se echaba a la sopa o se comía con trozos de tocino o carne, y en la cena se terminaba con talo y leche, como en el desayuno. Y el talo con chorizo, o txistorra, era ya una buena merienda.
Cuando Gurutzi Arregi estudia la etnografía de Durango, nos cuenta cómo hacían el talo en los caseríos y en las casas, pues era, de nuevo, la comida de los pobres para una época de escasez. Era el año 1942:
“Se ponía a hervir agua con sal. En un recipiente se ponía la harina de maíz o la harina de trigo y se iba echando el agua poco a poco, y se iba amasando hasta hacer una bola grande. Encima de la mesa, se echaba harina, y se cogían trozos de la masa, en proporciones mayores o menores según el tamaño de los talos y se iba aplastando, dándoles forma, generalmente redonda.
En los caseríos se colocaba el talo en la talopara de hierro y mango de madera. En las casas de la calle encima de la chapa -cocina económica-, bien caliente. Primero se le hacia dorar por un lado, y después se le daba la vuelta para que se dorase la otra cara.
Es muy corriente comer tocino frito con el talo. También se comía mucho el talo con leche.”
Espero que les guste. Con txistorra está rico pero con tocino frito es ya pecado de dieta poco saludable. O eso dicen.
Referencias:
Arocena, F. de. 1933. La introducción del maíz, Gonzalo de Percaiztegui. Revista Internacional de Estudios Vascos 24: 362-364.
Arregi, G. 1985. Etnografía de Durango. Datos geográficos. La alimentación. Juegos infantiles. Instituto Labayru. Bilbao. 98 pp.
Beadle, G.W. 1980. El origen del maíz. Investigación y Ciencia marzo: 84-92.
Bentz, B. 2002. La domesticación del maíz. Mundo Científico mayo: 36-40.
Brothwell, D. & P. Brothwell. 1969. Food in Antiquity. A survey of the diet of early peoples. Johns Hopkins University Press. Baltimore and London. 283 pp.
Cohen, M.N. 1981. La crisis alimentaria de la Prehistoria. La superpoblación y los orígenes de la agricultura. Alianza Ed. Madrid. 327 pp.
Gobierno de Aragón, 2014. El teosinte (Zea mays, spp.). Dirección General de Alimentación y Fomento Agroalimentario. Zaragoza. 6 pp.
Hake, S. & J. Ross-Ibarra. 2015. Genetic, evolutionary and plant breeding insights from the domestication of maize. eLife 4: e05861
Hufford, M.B. et al. 2012. Comparative population genomics of maize domestication and improvement. Nature Genetics 44: 808-813.
Lastras, J.L. 2009. Boronos, los más desconocidos de la Matanza. Blog El Laboratorio Gastronómico. 6 enero.
Messer, E. 2000. Maize. En “The Cambridge World History of Food, vol. 1”, p. 97-112. Ed. por K.F. Kiple & K.C. Ornerlas. Cambridge University Press. Cambridge.
Paz, M. de 2013. El trigo de los pobres. La recepción del maíz en el Viejo Mundo. Batey: Revista Cubana de Antropología Sociocultural 5: 142-174.
Pohl, M.E.D. et al. 2007. Microfossil evidence for pre-Columbian maize dispersals in teh neotropics from San Andres, Tabasco, Mexico. Proceedings of the National Academy of Sciences USA 104: 6870-6875.
Ramos Madrigal, J. et al. 2016. Genome sequence of a 5310-year-old maize cob provides insights into the early stages of maize domestication. Current Biology doi: 10.1016/j.cub.2016.09.036
Ranere, A.J. et al. 2009. The cultural and chronological context of early Holocene maize and squash domestication in the Central Balsas River Valley, Mexico. Proceedings of the National Academy of Sciences USA 106: 5014-5018.
Riera Climent, L. & J. Riera Palmero. 2007. Los alimentos americanos en los Extractos de la Bascongada (1768-1793): El maíz y la patata. Llull 30: 319-332.
Ritchie, C.I.A. 1986. Comida y civilización. De cómo los gustos alimenticios han cambiado la Historia. Alianza Ed. Madrid. 272 pp.
Toussaint-Samat, H. 2009. A history of the food. Wiley-Blackwell. Chichester. 756 pp.
Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.
El artículo Ingredientes para la receta: El maíz se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La teoría de bandas de los sólidos se hace topológica
Hasta hace prácticamente 10 años los materiales, según las teorías de física y química establecidas, se dividían en metales, semimetales y aislantes, siendo los materiales semiconductores un caso particular de estos últimos. Esa clasificación en tres grandes grupos se basa en lo que se conoce como “teoría de bandas”, que básicamente se fija en propiedades electrónicas y en cómo los enlaces entre los elementos químicos de un material influyen en esas propiedades. Desde el punto de vista físico, la asignación de un material a uno de esos tipos depende de la existencia o no de un salto energético entre las bandas de valencia y conducción y, si existe este salto, de su magnitud.
Tras un largo paréntesis sin descubrir nuevos estados o propiedades, en los últimos tiempos ha resurgido el interés en este área de conocimiento a raíz de la predicción, mediante la teoría de bandas convencional, de unos materiales que son aislantes en su interior, pero son conductores en la superficie, es decir, son aislantes y metales al mismo tiempo. Resulta, además, que ese estado conductor o metálico de la superficie apenas presenta pérdidas de energía a temperatura ambiente y es muy robusto frente a posibles impurezas: se dice que está protegido topológicamente. La topología es la rama de las matemáticas que estudia qué propiedades de los cuerpos geométricos no se alteran al deformarlos de manera continua. Siguiendo con esa analogía, los materiales topológicos son aquellos cuyas propiedades están definidas o “protegidas” por la propia estructura y simetría del cristal, de forma que si no se modifica dicha estructura, estas propiedades no se pueden cambiar.
El interés surgido a partir del descubrimiento de estos materiales topológicos con propiedades exóticas lo demuestra el hecho de que el Premio Nobel de Física de 2016 fue concedido a tres de los pioneros de ese nuevo campo. Sin embargo, a pesar de las extraordinarias y prometedoras propiedades de estos materiales, de los casi 200.000 materiales que hay catalogados en las bases de datos de estructuras inorgánicas, apenas se han encontrado en los últimos 10 años 100 materiales que presenten esta fase o estado topológico.
Ahora, un equipo internacional de investigadores, en el que han tomado parte los profesores Luis Elcoro y Mois Aroyo, del Departamento de Física de la Materia Condensada de la Facultad de Ciencia y Tecnología de la UPV/EHU y Maia García Vergniory, del Departamento de Física ApIicada II de la misma facultad de la UPV/EHU y también investigadora del DIPC, ha introducido y desarrollado un nuevo paradigma en la teoría de estructura electrónica de bandas, completando así el trabajo pionero, entre otros, del físico suizo Felix Bloch en la primera mitad del siglo XX. Este novedoso y revolucionario estudio introduce nuevas consideraciones matemáticas, de las teorías de grupos y grafos, en el análisis que de los sistemas cristalinos hace la teoría de Bloch y proporciona una forma más descriptiva, rápida y eficaz para descubrir y caracterizar metales y aislantes con propiedades topológicas.
El grupo de investigación ha utilizado su nueva teoría de “química cuántica topológica” para caracterizar todos los tipos de bandas elementales posibles para todas las simetrías posibles, generando una especie de catálogo de consulta a disposición de toda comunidad científica, en el cual investigadores de todo el mundo puedan buscar fácilmente candidatos de posibles materiales topológicos, y evitar tediosos y costosos cálculos computacionales. Toda esta información y las herramientas para su elaboración se encuentra disponible en el Bilbao Crystallographic Server, desarrollado y mantenido por personal docente e investigador de la UPV/EHU.
“Los resultados publicados demuestran que los aislantes y materiales topológicos son más comunes en la naturaleza de lo que hasta ahora se había creído; lo cual resulta muy prometedor e interesante, ya que abre las puertas a una nueva forma de entender los materiales, así como a una electrónica de baja disipación energética, y tantos otros descubrimientos que están por llegar”, explican los autores del estudio.
Fuente:
Barry Bradlyn, L. Elcoro, Jennifer Cano, M. G. Vergniory, Zhijun Wang, C. Felser, M. I. Aroyo, and B. Andrei Bernevig Topological quantum chemistry Nature. DOI: 10.1038/nature23268
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo La teoría de bandas de los sólidos se hace topológica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Al rescate
El pasado abril se publicaron los resultados de un estudio que ha documentado el primer caso conocido en que unas hormigas acuden al rescate de una compañera herida en combate. Los insectos en cuestión pertenecen a la especie Megaponera analis, una hormiga africana cuyos miembros realizan expediciones en grupos de entre 200 y 500 individuos para cazar termitas en sus termiteros. Las batallas entre termitas y hormigas no son precisamente incruentas; al contrario, las termitas también tienen poderosas mandíbulas y no son presa fácil para las hormigas. Como consecuencia, no son raras las ocasiones en que las hormigas resultan heridas de gravedad. Muchas veces llegan a perder alguna extremidad en la mandíbula de una termita.
Pues bien, es en esos casos cuando las compañeras de la hormiga a la que se ha cercenado una pata o llevan una termita firmemente anclada en su cuerpo acuden en su busca, la rescatan y se la llevan de vuelta al hormiguero. Una vez allí, en un alto porcentaje de las ocasiones se recupera y puede volver a tomar parte en nuevas partidas de caza. Si han perdido una extremidad, las hormigas rescatadas no la recuperan; sencillamente aprenden a desplazarse y a operar sin la que les falta. Un 95% de las recuperadas vuelven a cazar una o dos horas después de haber sido devueltas al hormiguero. De acuerdo con los cálculos hechos por los investigadores que han observado este comportamiento, las colonias de esta especie son un 29% mayores de lo que serían si abandonasen a su suerte a las hormigas heridas. La razón por la que ese proceder ha podido surgir en esta especie es que cazan en grupo, sus colonias son relativamente pequeñas y el número de hormigas heridas en cada ataque es relativamente alto, por lo que cada hormiga cuenta.
El mecanismo implicado es asombrosamente simple y se basa en la comunicación química a distancia mediante feromonas. Las feromonas son sustancias secretadas por ciertos seres vivos que provocan comportamientos específicos en otros individuos de la misma especie. Los ejemplares de Megaponera analis heridos en los termiteros liberan dos feromonas desde sus glándulas maxilares; esa es la señal que, al ser recibida por las compañeras, induce la respuesta consistente en acudir en su busca.
Cuando el comportamiento de rescate se dio a conocer, muchos medios se hicieron eco del mismo, y en la mayoría de los consultados por este cronista se incidía en el hecho de que el rescate no debía ser entendido como altruismo equivalente al de nuestra especie, dado que la razón por la que las hormigas lo practican es el interés por contar con abundantes efectivos para las partidas de caza. Sin embargo, esa forma de entender el altruismo me parece naif. Implica una concepción desenfocada de los comportamientos prosociales en general y altruistas o generosos en particular.
Las hormigas son organismos eusociales. Forman colonias que funcionan como si se tratase de un superorganismo. En ellos la colaboración, el trabajo en equipo y la ayuda mutua son esenciales. Pero el comportamiento prosocial también es valioso para los integrantes de los grupos humanos. También en nuestra especie rinde beneficios en términos de aptitud: tiene valor adaptativo y, con toda probabilidad, ha sido seleccionado en el curso de nuestra evolución. Por esa razón, aunque la biología, los mecanismos y las estructuras sociales son diferentes en hormigas y seres humanos, las consecuencias de la colaboración son semejantes. En rigor, por ello, no hay ninguna razón para pensar que los rescates de hormigas y los que puedan realizarse en las situaciones humanas equivalentes son sustancialmente diferentes: ambos son igualmente prosociales.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 7 de mayo de 2017.
El artículo Al rescate se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: