Cuaderno de Cultura Científica jarioa-rako harpidetza egin
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Eguneratua: duela 42 min 47 seg

Crónica de la 2ª jornada “Las pruebas de la educación”

Og, 2018-03-29 17:00

Después el éxito de la primera edición de la jornada “Las pruebas de la educación”, el pasado 2 de febrero tuvo lugar la segunda edición de ésta jornada que nuevamente completó aforo.

La jornada busca generar debate sobre cuestiones que afectan a la educación, desde el sistema educativo hasta los métodos de aprendizaje en auge, pasando por los problemas de aplicación de los distintos programas o las técnicas y herramientas con los que hacer frente a los problemas cognitivos de los alumnos. Y todo ello basándose en la evidencia científica disponible al respecto.

Problemas de aprendizaje

El encargado de abrir la jornada fue José Ramón Alonso, quien trató el tema del autismo en la educación. Tras explicar que el déficit de la interacción social y los patrones de comportamiento restringidos y repetitivos son las principales características de los trastornos del espectro autista, el ponente pasó a dar una serie de consejos para los profesores de estos alumnos.

Entre ellos, ayudar al niño a desarrollar estrategias y habilidades para comunicarse o adaptar la enseñanza a las peculiaridades del aprendizaje del niño. Dirigirse al niño en primera persona e individualmente o hacer preguntas cerradas en lugar de abiertas son algunas de las adaptaciones que el profesorado puede aplicar para facilitar el día a día a los alumnos con trastorno del espectro autista.

Por otro lado, un trastorno de aprendizaje común en el aula es la dislexia, que crea dificultades de lectura en los alumnos que lo padecen. Joana Acha describió la base fonológica del trastorno acreditada por la neurociencia. En la actualidad hay muchos métodos que aseguran ayudar con la dislexia: el método Tomatis, el Brain Gym, el método Doman o la kinesiología. Ninguno de ellos está avalado por la evidencia científica.

En el caso de la dislexia lo probado científicamente es de base fonológica, ya que se ha demostrado que trabajar habilidades como el conocimiento fonológico, la asociación sonido-letra o la adquisición del léxico visual, entre otras, tienen un efecto positivo.

Deberes, evaluación y eficacia

¿Sirven para algo los deberes? ¿Qué utilidad tienen las evaluaciones? Son dos de las cuestiones a la orden del día en el ámbito educativo y que han provocado posturas muy encontradas, hasta llegar a la huelga de deberes. La psicóloga Marta Ferrero fue la encargada de presentar las pruebas científicas al respecto.

Y lo cierto es que, pese a la mala fama que tienen últimamente, las pruebas científicas avalan tanto los deberes como las evaluaciones. Según las investigaciones, la evaluación no solo sirve para valorar, sino que favorece el aprendizaje y fomenta el estudio: cuantas más evaluaciones (recuperación de información, no solo exámenes con nota) más sesiones de estudio. No solo eso, también ayuda a detectar las lagunas de conocimiento en el aprendizaje.

En el caso de los deberes la conclusión es clara: los deberes aportan beneficios a todos los alumnos. Pero no cualquier tipo de deberes. Según explicó la ponente, los deberes han de mandarse con un propósito y también es importante que en los hogares se cree un espacio y una rutina para hacerlos. Finalmente, Ferrero presentó las dificultades deseables1 (concepto enmarcado en la Teoría del Desuso, de Bjork y Bjork2) como método de enseñanza.

Este método está basado en el funcionamiento de la memoria, que es precisamente el tema que trató el psicólogo Joaquín Morís. Al principio de su ponencia el psicólogo sentó la base de que todo aprendizaje implica memoria y que memoria no es igual a aprender de memoria.

Según explicó Moris, cuanto más accesible una habilidad, menor aprendizaje. Y es que entra en juego la ilusión de la fluidez: “si estoy haciendo bien la tarea, cómo no voy a estar aprendiendo”. De ahí que las dificultades deseables sean un método para mejorar el aprendizaje.

Por supuesto, el aprendizaje se da en el contexto de un sistema educativo concreto que también influye. La filóloga Inger Enkvist presentó el caso del sistema educativo sueco, que instauró la escuela educativa única o de base. En ella los profesores tenían 5 consignas: motivación, actividad, concreción, individualización y colaboración. El sistema concatenó reformas y leyes educativas y en la década de los ochenta prácticamente desaparecieron las notas, un alumno recibía su primera nota a los 15 años. Se trata de un sistema que, según la ponente, además de no contar con el beneplácito del profesorado, no obtuvo los resultados esperados.

Además del sistema educativo, los distintos centros también tienen un gran impacto en la educación. Es de lo que trató la ponencia de Beronika Azpillaga, quien forma parte de un grupo que investiga la eficacia de distintos centros escolares en el País Vasco y analiza las características de aquellos con mejores resultados.

Entre las claves de los centros eficaces destacó el seguimiento y las tutorías fuertes, la atención a la diversidad y la importancia de un buen equipo humano. En esta ocasión trajo la segunda parte de la investigación que junto a Luis Lizasoain presentó en la anterior edición de la jornada.

En la charla-coloquio final se pusieron de manifiesto algunos de los problemas a los que se enfrenta la educación en la actualidad. Entre ellos destacó la distancia existente entre la investigación y la docencia y la dificultad del profesorado para acceder e interpretar correctamente investigaciones científicas relevantes de su campo. Debido a este cisma, es frecuente que los profesores se dejen llevar por metodologías que se ponen de moda a pesar de carecer de base científica y que, preocupantemente, en muchas ocasiones provienen de fuentes fiables.

De ahí que se subrayase la importancia de dotar a los profesores de las aptitudes y herramientas adecuadas para que puedan discernir entre metodologías eficaces y científicamente probadas y metodologías sin base alguna.

Referencias:

1Bjork, R.A. (1994) Memory and metamemory considerations in the training of human beings. In J. Metcalfe &A. Shimamura (Eds.), Metacognition: Knowing about Knowing (pp. 185-205) Cambridge, MA:MIT Press.

2 Bjork, E. L., & Bjork, R. A. (2014). Making things hard on yourself, but in a good way: Creating desirable difficulties to enhance learning. In M. A. Gernsbacher and J. Pomerantz (Eds.), Psychology and the real world: Essays illustrating fundamental contributions to society (2nd edition). (pp. 59-68). New York: Worth.

Sobre la autora: Ziortza Guezuraga, periodista, es colaboradora de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Crónica de la 2ª jornada “Las pruebas de la educación” se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Crónica de la 1ª jornada “Las pruebas de la educación”
  2. Las pruebas de la educación 2018: El coloquio
  3. Cómo destruir un buen sistema de educación. El ejemplo sueco
Kategoriak: Zientzia

La ciencia y la tentación de la narrativa

Og, 2018-03-29 11:59

La publicación en 1610 del “Sidereus nuncius” de Gaileo contenía mapas de la Luna con montañas y planicies que echaban por tierra la visión del universo aristotélica y las narrativas asociadas. En 1651 Franceso Grimaldi dibujaba este mapa a las órdenes de Giovanni Battista Riccioli, sacerdote jesuita, en el que éste bautizaba los accidentes geográficos lunares con nombres que aún se usan hoy día.

La gran tragedia de la ciencia, decía Thomas Henry Huxley con considerable ironía, es el asesinato de una hermosa hipótesis a manos de un repugnante dato. Y es algo mucho más común de lo que imaginamos: innumerales, intrincadas, preciosas y espectacularmente explicativas hipótesis resultan cada día dañadas, heridas o destruidas por la súbita aparición en escena de un feo y aparentemente insignificante dato que sin embargo se convierte en su victimario y ejecutor. Porque no importa lo atractiva que pueda parecer una hipótesis ni la potencia de su capacidad explicativa, no hay explicación o teoría de funcionamiento de un fenómeno natural que pueda resistir a la imposibilidad de explicar un dato fehaciente.

El fenómeno está especialmente extendido en biología por culpa de la inagotable y feroz creatividad chapucera de la evolución por selección natural. Es común que un intrincado y complejo fenómeno que se podría explicar por la elegante interacción de un puñado de reglas comprensibles y sencillas resulte funcionar a base de ad hocs, como una sucesión de parches colocados unos sobre otros empleando los materiales menos convenientes y usando las combinaciones menos elegantes. La naturaleza suele utilizar lo que funciona y tiene a mano aunque la solución no sea la más económica o racional, y así es común que las redes genéticas que controlan un fenómeno usen absurdas combinaciones y extraños ciclos de control, o que una adaptación morfológica provoque situaciones carentes de lógica como el nervio faríngeo recurrente de la jirafa, que llega a alcanzar los 5 m de longitud para cubrir una distancia mucho menor. Ante este tipo de datos y hechos reales cualquier hipótesis alambicada y hermosa puede resultar más que perjudicada.

En el fondo se trata de uno de los muchos problemas que traen ’de fábrica’ los cerebros humanos a la hora de entender el universo que nos rodea; esos defectos del intelecto que tanto nos dificultan pensar con absoluta claridad. Porque para nuestra forma de pensar no hay nada más intoxicador y atrayente que una buena historia; nos gusta tanto una narrativa clara, elegante y sencilla que somos incapaces de resistirnos a la tentación y no sólo creemos en ella, sino que si es necesario la ‘ajustamos’ un poco si no encaja con los datos.

Las narrativas, las buenas historias, actúan sobre la mente humana como un virus: la colonizan, la invaden y la emplean para reproducirse transmitiéndose a otras mentes. Los cuentos y las narraciones nos gustan tanto que existen industrias multimillonarias dedicadas a ellos, desde los medios al cine, y la creación y mantenimiento de narrativas forma parte clave de nuestra política y de nuestra sociedad. El periplo del héroe, también llamado el monomito, es el arquetipo básico de buena parte de nuestras historias y su ubicuidad y persistencia demuestra la potencia que la narración tiene sobre nosotros. Las buenas historias, que cuanto están bien narradas son capaces de esconder sus propios fallos y debilidades, ejercen tan poderosa influencia sobre nuestra mente como para resultar peligrosas.

Este peligro se refiere sobre todo a la interacción entre las historias y la realidad, algo que ocurre en ciencia todo el tiempo. Los científicos son humanos por tanto sus mentes funcionan con historias; una buena teoría o una buena hipótesis no es más que una buena historia que explica una serie de fenómenos y los integra en un todo comprensible. Cualquier estudiosos de la realidad tenderá a construir una narrativa con lo que contempla, una historia que le ayude a comprender de qué manera aspectos aparentemente diferentes son en realidad facetas distintas de un fenómeno subyacente más fácil de comprender. En ese sentido la emisión de hipótesis y la creación de teorías no se diferencia en exceso de la creación de mitos o de narraciones; teorizar no está tan lejos de la literatura o del arte como pudiésemos imaginar.

Pero en la ciencia hay un paso más que resulta vital: confrontar nuestras preciosas narrativas hipotéticas, esas creaciones del intelecto cargadas de lógica y elegancia, con la cruda realidad. Donde a menudo las bellas hipótesis que podrían explicarlo todo de un modo sencillo y elegante resultan evisceradas porque a pesar de todo su poder explicativo resultan ser incapaces de explicar un simple dato. Toda la creatividad humana, toda la estructura del viaje heroico, todo el afán de simplicidad belleza de una hermosa hipótesis quedan en nada cuando esa explicación no es capaz de enfrentarse a un hecho. La narración nada tiene que hacer si la historia que estamos contando no puede explicar lo que de verdad sucede en ese experimento, en ese detalle anatómico, en ese detector.

Y de este modo las más bellas narrativas de la ciencia se pierden y desaparecen, y carreras científicas enteras llegan a un brusco final cuando aparecen datos que masacran sin piedad su capacidad explicativa. Porque los cerebros de los humano somos muy vulnerables al poder de las historias, pero en ciencia una buena narración no es suficiente.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo La ciencia y la tentación de la narrativa se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La tentación de la posesión
  2. La ciencia y los errores
  3. La tentación de la explicación única
Kategoriak: Zientzia

Los vacíos cósmicos y la estructura del universo

Az, 2018-03-28 17:00

Imagen en infrarrojo del espacio profundo tomada por el Telescopio Espacial Hubble

Cuando pensamos en el universo en su conjunto imaginamos una cantidad enorme de galaxias. De hecho, las galaxias son lo más estudiado por los astrónomos para comprender el universo en su conjunto. Sin embargo, los investigadores están descubriendo que hay mucho que aprender de los vacíos cósmicos: franjas de espacio mayormente vacío, tan grandes que la luz tarda cientos de millones de años en atravesarlos.

La temperatura y la presión del gas presente en los huecos podría, por ejemplo, proporcionar pistas sobre cómo la energía circula a través del cosmos. Un equipo de investigadores encabezado por David Alonso, de la Universidad de Oxford (Reino Unido), han dado uno de los primeros pasos para determinar estas propiedades del gas mediante el análisis de cómo el gas distorsiona la luz del Universo primitivo.

El fondo cósmico de microondas (FCM) es la primera luz que se libera en el universo, aproximadamente 380,000 años después del Big Bang. El gas intergaláctico aumenta la energía de los fotones del FCM, y esta distorsión es una poderosa herramienta para estudiar los cúmulos de galaxias. Pero nadie la ha usado para estudiar los vacíos cósmicos. El equipo de Alonso combinó mapas del FCM con imágenes de 774 vacíos cósmicos. A partir de ahí los investigadores dedujeron las propiedades del gas en cada vacío comparando de la energía medida de los fotones del FCM con modelos de la presión electrónica en los vacíos.

De esta forma los astrofísicos descubrieron que la presión es menor que el promedio cósmico. Este resultado no es sorprendente, dado que poco se puede esperar que suceda en un vacío, y puede significar que los vacíos evolucionaron pasivamente conforme aumentaba la edad del Universo.

Pero hay indicios en los datos de que el gas podría estar más caliente de lo esperado. Si este hallazgo se confirmase, podría ser una señal de que los poderosos chorros emitidos por los agujeros negros supermasivos bombeen energía al gas intergaláctico y ayuden de esta manera a dar forma al universo. La resolución de este problema tendrá que esperar varios años hasta que se disponga de telescopios más potentes, como el Observatorio Simons en Chile.

Referencia:

David Alonso, J. Colin Hill, Renée Hložek, and David N. Spergel (2018) Measurement of the thermal Sunyaev-Zel’dovich effect around cosmic voids Physical Review D doi: 10.1103/PhysRevD.97.063514

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Los vacíos cósmicos y la estructura del universo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los vacíos cósmicos y la relatividad general
  2. La estructura del universo como una interferencia cuántica
  3. La estructura en común de estrellas de neutrones y aparcamientos
Kategoriak: Zientzia

Alexandre Grothendieck, el genio rebelde

Az, 2018-03-28 11:59

En una conversación matemática, alguien sugirió a Grothendieck que debería considerar un número primo particular. “¿Te refieres a un número concreto?”, contestó Grothendieck. La otra persona replicó “Sí, un número primo concreto”. Grotendieck sugirió: “De acuerdo, tomemos el 57”.

Allyn Jackson en [2], página 1196.

El 57 se conoce desde entonces como “el número primo de Grothendieck”: por cierto, no es primo, ya que 57 = 3 x 19…

Alexandre Grothendieck. Fuente: Wikimedia Commons.

Alexandre Grothendieck nació el 28 de marzo de 1928. Su madre, Hanka Grothendieck (1900-1957), era periodista, y su padre, Sascha Schapiro (1889-1942), un fotógrafo ruso, judío y militante anarquista.

Entre 1934 y 1939, Hanka y Sascha se unieron a los anarquistas en la Guerra Civil Española, dejando a su hijo a cargo de unos conocidos en Hamburgo. Tras reunirse con sus padres en el sur de Francia, Sascha fue recluido en el campo de internamiento de Vernet y transferido después al de Auschwitz, en el que fue asesinado. Hanka y Alexandre fueron enviados al campo de internamiento de Rieucros, después al de Brens en 1942. Con ayuda de una asociación protestante cuya misión era la de salvar niños judíos, se evadieron para evitar la deportación y la muerte.

Al acabar la guerra, Alexandre comenzó sus estudios de matemáticas en Montpellier. Laurent Schwartz (1915-2002) y Jean Dieudonné (1906-1992) fueron sus directores de tesis (Produits tensoriels topologiques et espaces nucleaires, 1953). Al conocerle, entregaron a su nuevo alumno un listado de catorce problemas que consideraban como un vasto programa de trabajo para varios años, y le pidieron que eligiera uno de ellos. Algunos meses más tarde, Alexandre fue a ver a sus directores habiendo resuelto los catorce problemas: la leyenda acababa de comenzar.

En la primera parte de su carrera, Grothendieck trabajó en análisis funcional y, a pesar de los grandes aportes en esta área, sus posteriores trabajos en geometría algebraica, teoría K y álgebra homológica son los que le dieron la fama.

En 1966 fue galardonado con la Medalla Fields, pero por razones políticas se negó a acudir a Moscú a recoger su premio. Fue el primero de una serie de reconocimientos y posicionamientos políticos que le alejaron sin remedio de la comunidad científica. En 1977 se le concedió la Medalla Émile Picard de la Academia de Ciencias de París, que subastó para donar el dinero al gobierno de Vietnam del Norte. En 1988 se le concedió el Premio Crafoord de la Real Academia Sueca de Ciencias (junto a su alumno Pierre Deligne) y lo rechazó, argumentando que no necesitaba ni el dinero ni los honores.

Carta en la que Grothendieck renuncia a toda utilización comercial de sus obras, 2010. Fuemte: Secret Blogging Seminar

Apátrida, pacifista, ecologista, y muy influenciado por el movimiento hippy, Alexandre Grothendieck fue un genio de las matemáticas, con una personalidad indomable. Falleció el 13 de noviembre de 2014. En las referencias recomendadas puede conocerse más sobre su vida y su obra.

Como topóloga, no he podido resistirme a reproducir estas palabras de Alexandre Grothendieck extraídas de su Récoltes et Semailles, Réflexions et témoignage sur un passé de mathématicien. Eneste largo texto, producto de profundas meditaciones realizadas durante años y nunca publicado, el matemático pasaba revista a su obra científica y analizaba el entorno matemático con, en algunas ocasiones, una mirada muy crítica.

La noción de “espacio” es sin duda uno de las más antiguas en matemáticas. Es tan fundamental en nuestra aprehensión “geométrica” del mundo que ha permanecido más o menos tácita durante más de dos milenios. Es a lo largo del pasado siglo cuando esta noción ha conseguido desprenderse, gradualmente, del dominio tiránico de la percepción inmediata (de un único y mismo “espacio” que nos rodea), y de su teorización tradicional (“euclidiana”) para adquirir su autonomía y su dinámica propias. Hoy en día, es una de las pocas nociones universales y más comúnmente utilizadas en matemáticas, sin duda familiar para cualquier matemático sin excepción. Además, es una noción proteiforme donde las haya, con cientos y miles de caras, dependiendo del tipo de estructuras que se incorporen a estos espacios, desde las más ricas (como las venerables estructuras “euclidianas” o las estructuras “afines” y “proyectivas”, o también las estructuras “algebraicas” de las “variedades” del mismo nombre, que las generalizan y suavizan) hasta las más simples: aquellas en las que cualquier elemento de información “cuantitativo” de cualquier tipo parece haber desaparecido sin posibilidad de retorno, y donde solo queda la quintaesencia cualitativa de la noción de “proximidad” o la de “límite”, y la versión más elusiva de la intuición de la forma (llamada “topológica”). La más pobre de todas estas nociones, la que hasta ahora, y durante el último medio siglo, había tomado el lugar de una especie de amplio marco conceptual común para abarcar a todas las demás, era la del espacio topológico. El estudio de estos espacios constituye una de las ramas más fascinantes, la más persistente, de la geometría: la topología.

Récoltes et Semailles, La topologie ou l’arpentage des brumes, 51-52.

Más información:

[1] Philippe Douroux, Alexandre Grothendieck. Un voyage à la poursuite des choses évidentes, Images des Mathématiques, CNRS, 2012

[2] Allyn Jackson, Comme Appelé du Néant-As If Summoned from the Void. The Life of Alexandre Grothendieck (parte 1 y parte 2), Notices AMS, vol. 51 (9) (2004) 1038-1056 y vol. 51 (10) (2004) 1196-1212

[3] Winfried Scharlau, Who Is Alexander Grothendieck?, Notices AMS, vol. 55 (8) (2008) 930-941

[4] Javier Fresán, Un congreso de geometría algebraica celebra la figura de Grothendieck, genio, apátrida y ermitaño, Público, 2009

[5] Francisco R. Villatoro, La obra de Alexander Grothendieck (1928-2014),La ciencia de la mula Francis, 16 noviembre 2014

[6] Textos de Alexandre Grothendieck, recopilación de Juan Antonio Navarro González

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Alexandre Grothendieck, el genio rebelde se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Wolfgang Döblin, un genio perdido
  2. Alexandre Yersin: el rango que otorga la ciencia
  3. El genio de Ampère
Kategoriak: Zientzia

Relaciones hídricas y salinas de los animales: fundamentos

Ar, 2018-03-27 17:00

Los líquidos corporales de los animales se distribuyen en tres espacios o compartimentos, principalmente: celular (líquido intracelular), espacios entre las células (líquido intersticial) y, de haberlas, cavidad general del cuerpo y sistema vascular (líquido celómico, plasma sanguíneo, hemolinfa o equivalente). Como vimos aquí, el líquido intersticial y el plasma pueden ser considerados conjuntamente líquido extracelular (o medio interno). En los animales sin sistema vascular la razón de esa identidad es obvia. En los animales con sistema circulatorio abierto no hay discontinuidad alguna entre la hemolinfa y el líquido que baña las células. Y en los de sistema cerrado, los capilares tienen poros (entre las células endoteliales o, incluso, atravesando tales células) a través de los cuales se establece una continuidad casi absoluta entre ambos sistemas; las únicas sustancias que no atraviesan la barrera que representa el endotelio capilar son ciertas moléculas, como proteínas plasmáticas, cuyo gran tamaño impide su salida del capilar hacia los espacios intercelulares. Por lo tanto, el líquido intersticial y el plasma (o equivalente) tienen la misma concentración osmótica y casi idéntica composición iónica. Sin embargo, aunque los líquidos extra e intracelular tengan también la misma concentración osmótica, la composición de iones y de ciertas moléculas orgánicas es muy diferente en ambos fluidos.

Por las razones dadas, desde un punto de vista funcional, resulta útil reducir las subdivisiones anteriores a dos: medio intracelular y medio interno. Ambos medios se encuentran separados por la membrana celular que, dada su carácter semipermeable, ejerce de barrera para con ciertos solutos (Na+, Cl–, sustancias orgánicas) pero no para con el K+ ni para con el agua. Y por otro lado, el medio interno y el medio exterior también se encuentran separados por el tegumento, que normalmente hace función de barrera.

Los animales han de preservar su contenido hídrico dentro de ciertos márgenes, porque de ese contenido depende la existencia de los fluidos corporales y que esos fluidos tengan características compatibles con las funciones animales. Al fin y al cabo, todas las estructuras internas se hallan bañadas por fluidos, que son el ambiente inmediato de células, orgánulos celulares y moléculas. Su composición es el contexto en el que funcionan aquellas. Las concentraciones de los iones a los que nos referiremos enseguida dependen del volumen de los fluidos en los que se encuentran disueltos. Y además, de ese volumen depende el de las células y tejidos.

Los animales también han de mantener en un rango restringido de valores la concentración intracelular de los iones inorgánicos. El K+, principal catión intracelular, ha de mantener una concentración relativamente alta, pues así lo requiere la estabilidad e integridad funcional de las proteínas. Del mismo modo, han de mantener a niveles reducidos la concentración de Na+ y Cl– dentro de las células, porque incluso concentraciones moderadas de esos iones desestabilizan las proteínas celulares. Además, las concentraciones intra y extracelulares de esos tres iones puede determinar (dependiendo de la permeabilidad relativa de la membrana celular para con cada uno de ellos) la diferencia de potencial eléctrico entre los lados interno y externo de la membrana, lo que resulta crucial desde el punto de vista de la transmisión del impulso nervioso en las neuronas y de la contracción muscular.

Por todo lo apuntado hasta aquí, desde el punto de vista de los equilibrios que han de mantener los animales en materia de contenido hídrico y concentración interna de solutos, la capacidad para ejercer un cierto control sobre los movimientos de agua y sales a través de esas barreras es esencial en la mayor parte de las especies. Aunque ese control se ejerce de forma diferente en las dos barreras mencionadas (membrana celular y tegumento corporal) dependiendo del tipo de relación que cada especie mantiene con el medio en el que se encuentra.

Los animales, como es sabido, ocupan medios acuáticos y el medio terrestre. En lo relativo a los medios acuáticos, estos pueden tener muy diferentes concentraciones salinas. No obstante, la división fundamental es la que existe entre el agua de mar y las aguas dulces. El agua marina tiene una concentración osmótica de 1000 mOsm (miliosmolar), que corresponde a unos 35 g kg-1 (g de sales por kg de agua). Las aguas dulces varían dentro de un rango relativamente estrecho, de entre 0,15 y 15 mOsm; en términos de masas, su concentración de sales se encuentra entre 0,1 y 0,2 g kg-1, aunque se consideran aguas dulces todas aquellas cuya concentración gravimétrica es inferior a 0,5 g kg-1. Los iones principales del agua de mar son Na+ (470 mM), Cl– (548 mM), Mg+2 (54 mM), SO4-2 (28 mM), Ca+2 (10 mM) y K+ (10 mM). Las concentraciones de esas sustancias en aguas dulces, aunque muy bajas, pueden variar considerablemente entre unas masas de aguas y otras. No obstante, las siguientes pueden considerarse típicas del agua dulce: Na+ (0,35 mM), Cl– (0,23 mM), Mg+2 (0,21 mM), SO4-2 (0,19 mM), Ca+2 (0,75 mM) y K+ (0,08 mM).

Por otra parte, también hay importantes volúmenes de agua cuya concentración salina se encuentra entre la del mar y la del agua dulce: son las aguas salobres. Son relativamente normales en zonas costeras en las que el aporte de agua dulce continental diluye el agua marina, especialmente en los estuarios. Y también hay aguas hipersalinas, normalmente en lagos que experimentan una fuerte evaporación; son las aguas cuya concentración supera claramente la del agua de mar.

Flamencos en el lago salino y alcalino de Bogoria (Kenya). En primer plano emergencia de agua caliente.

En lo que se refiere a los medios terrestres, no existen medios que puedan ser diferenciados de forma tan nítida como las aguas saladas y las aguas dulces. La variable relevante en este caso es la presión parcial de vapor de agua en la atmósfera, porque esa variable, como veremos, afecta directamente a la pérdida de agua de un animal por evaporación. La presión de vapor de agua es la porción de la presión atmosférica que es debida al gas vapor de agua y tiene la peculiaridad, por comparación con otros gases, de que tiene un valor límite que no puede superar. Ese valor, que es la presión de saturación, varía con la temperatura: cuanto más alta es esta, mayor es la presión de vapor de saturación: a 0ºC, la presión de saturación del vapor de agua es 4,6 mmHg (0,61 kPa) y a 40ºC es 55,3 mmHg (7,37 kPa).

El agua que puede perder por evaporación un animal depende (1) de la presión parcial de vapor de agua en la atmósfera en la que se encuentra y de lo próxima o alejada que se encuentre esa presión de la de saturación (cuanto mayor sea la diferencia entre la presión de saturación y la presión parcial de vapor de agua, mayor será la pérdida), (2) de la renovación del aire en la proximidad del tegumento, (3) de la temperatura corporal del animal (por razones que no detallaremos aquí), (4) del grosor de la barrera que separa de la atmósfera el fluido corporal que se evapora y (5) de la permeabilidad del tegumento para con el agua. Por lo tanto, los factores ambientales que más inciden en la pérdida potencial de agua por evaporación son la presión parcial de vapor del agua, el viento, la temperatura del ambiente (porque de ella depende la presión de saturación) y la temperatura del animal. El agua se puede perder por otras vías, pero no nos ocuparemos aquí de ellas pues no guardan relación directa con los factores ambientales, que son los que ahora nos interesan. Por lo mismo, tampoco nos ocuparemos de los mecanismos para adquirir agua.

Los animales pueden desarrollar tres tipos de regulación: osmótica, iónica y de volumen. La regulación osmótica (osmorregulación) consiste en el mantenimiento en niveles constantes o casi constantes la concentración osmótica del medio interno. Cuando se define de esta forma la osmorregulación, normalmente se asume que tal capacidad se ejercita en el contexto de variaciones ambientales en la concentración osmótica del medio externo. Pero eso no tiene por qué ser así. También cabe hablar de osmorregulación en aquellos casos en que los animales mantienen concentraciones osmóticas internas constantes (o casi constantes) y diferentes de la del medio externo. Incluso si nos referimos a un animal terrestre que vive en un medio no acuático y que, por tanto, no puede ser caracterizado en términos de concentración osmótica, también podemos considerarlo osmorregulador si es capaz de mantener constante la concentración osmótica del medio interno en un contexto, por ejemplo, de variaciones en la disponibilidad de agua o bajo regímenes alimenticios de variables contenidos salinos.

Los animales que no regulan la concentración osmótica de su medio interno son osmoconformadores, lo que quiere decir que, si ocupan medios acuáticos la concentración osmótica de su medio interno se asemeja a la del medio externo y que si se trata de animales terrestres, varía en función de las condiciones ambientales.

La regulación iónica, por su parte, consiste en la capacidad para mantener constante la concentración de iones inorgánicos en el medio interno. En este caso no cabe hablar de una capacidad de regulación iónica general, sino que tal capacidad siempre se refiere a un ión concreto puesto que cada ión cuya concentración está regulada está sujeto a procesos específicos. También en relación con los iones inorgánicos recurrimos al término conformador para denominar al animal que no regula la composición de alguno de ellos; como en el caso de la regulación, también aquí la incapacidad para regular la concentración de un ión es específica para ese ión.

Nos interesa también la capacidad –o su ausencia- para regular el volumen del medio interno. Si un animal dispone de tal capacidad diremos que es un regulador del volumen, y que es conformador del volumen si carece de ella.

Para terminar, interesa valorar qué consecuencias tiene para el medio intracelular que un animal sea o no capaz de regular las magnitudes anteriores. Dado que las membranas celulares son permeables al agua, la concentración osmótica del medio intracelular es la misma que la de su medio interno; por lo tanto, un animal que regule este, mantendrá aquel igualmente regulado. Si, por el contrario, no regulase osmóticamente su medio interno, el medio intracelular experimentará una variación tendente a igualar su concentración con la de aquel, y dado que los iones inorgánicos han de ser mantenidos en un rango estrecho de concentraciones, ello podría provocar cambios en el volumen de las células debidas a flujo osmótico de agua.

En lo que a la concentración de iones inorgánicos se refiere, es importante que los ya señalados Na+, Cl– y K+ se mantengan dentro de un margen relativamente estrecho de concentraciones propias de los medios interno e intracelular. Las variaciones que se produzcan en el medio interno no deberían ser importantes ni incidir en lo que ocurra dentro de las células. De lo contrario, y como ya se ha señalado, la estructura de las proteínas (enzimas, principalmente) y, por ende, su integridad funcional se vería amenazada.

En lo que al volumen se refiere, la capacidad o incapacidad para regular el volumen del medio interno no debería afectar al volumen del medio intracelular si no se producen cambios en la osmolaridad. No obstante, en el caso de que un cambio en el volumen del medio interno ocurriese a la vez que una variación en su concentración osmótica, el volumen celular podría verse afectado como ya se ha dicho antes. No obstante, muchos animales han desarrollado la capacidad de realizar ajustes de la concentración intracelular de osmolitos orgánicos gracias a los cuales pueden mantener constante su volumen celular (regularlo) aunque cambie la concentración osmótica fuera (y dentro) de las células. Gracias a esa capacidad, a la que nos referimos aquí, se evita el flujo osmótico de agua hacia o desde el interior celular y el volumen permanece constante. A esa capacidad se la denomina regulación isosmótica del volumen celular.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Relaciones hídricas y salinas de los animales: fundamentos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Efectores osmóticos
  2. Los animales que respiran en agua
  3. El tamaño relativo de los órganos animales
Kategoriak: Zientzia

Las ecuaciones de campo de la relatividad general

Ar, 2018-03-27 11:59

La teoría general de la relatividad hemos visto que se basa, de forma análoga a la especial, en dos principios básicos: el de equivalenvia y el de covariancia. También hemos podido apreciar lo fácil e intuitivo que es enunciarlos. Otra cosa muy diferente es expresarlos matemáticamente y las consecuencias que se derivan de ellos son impresionantes, paradójicas y no fácilmente aprehensibles. Por ello, aunque la tentación sea obviar todo el aspecto matemático, no podemos dejar de pasar muy por encima por él y tener una idea de, al menos, el aspecto que tienen las llamadas ecuaciones del campo de Einstein [1][2].

Einstein empleó varios años y muchas discusiones y trabajos con matemáticos, especialmente Marcel Grossman y David Hilbert, para poder lograr la expresión matemática de sus ideas. Aunque Einstein ya dispuso de un primer esbozo en 1911 no sería hasta finales de 1915 que encontrase la forma definitiva [3]. La ecuaciones de campo se presentaron a la Academia Prusiana de Ciencias en noviembre de 1915. La idea general es que las soluciones a estas ecuaciones indican cómo el espaciotiempo y la masa-energía se influyen el uno a la otra y viceversa. Por ejemplo, cómo afecta al espaciotiempo la presencia de una masa como la del Sol, y cómo este espaciotiempo afecta al movimiento de una masa menor en las proximidades del Sol, como la de un planeta; o qué le pasa al espaciotiempo cuando una estrella masiva colapsa sobre sí misma hasta crear un punto de densidad infinita.

La dificultad matemática que encontró Einstein estriba en expresar cuantitativamente que el espaciotiempo se curva y cómo lo hace. Para conseguirlo tuvo que aprender las bases toda una rama de las matemáticas: el cálculo tensorial.

El espaciotiempo se curva en presencia de masa-energía. Imagen: ESA–C.Carreau

El espaciotiempo se curva

Si cortas una naranja por la mitad, quitas la pulpa del interior, e intentas aplanar el hemisferio de piel resultante, terminas rajándolo. Si tratas de aplanar algo con la forma de una silla de montar, como una patata frita (de las de bolsa) revenida, te encuentras con el problema contrario: hay “demasiada” superficie y se te forman pliegues. Si coges, sin embargo, un rollo de papel de cocina y deseas aplanarlo, no hay nada más fácil, con desenrollarlo, listo. Las superficies como las esferas se dice que están curvadas positivamente, las que tienen la forma de una silla de montar que lo están negativamente, y las que son como el papel de cocina son, simplemente, planas (démonos cuenta que son planas en este sentido aunque no estén en un plano). Esto es así porque la curvatura se define en términos de “geometría intrínseca” de una superficie, en la que la distancia se mide en función de los caminos que están dentro de la superficie.

Hay varias formas de hacer precisa esta noción de curvatura y hacerla cuantitativa, de tal manera que a cada punto de la superficie se pueda asociar un número que diga “cómo de curvada” está en ese punto. Para poder hacer esto es necesario que se cumplan determinadas condiciones matemáticas que permitan determinar las longitudes de los caminos, es lo que se llama una métrica riemanniana. La noción de curvatura puede ser generalizada a un mayor número de dimensiones, de tal forma que se habla de la curvatura en un punto en una variedad riemanniana de d dimensiones. Sin embargo, cuando la dimensión es mayor de dos, es decir, no es un plano lo que se curva sino un espacio, las posibilidades de curvatura en un punto se hacen tan complicadas que ya no pueden ser expresadas por un número sino por algo llamado el tensor de Ricci.

Un tensor no es más que la extensión del concepto de vector a dimensiones adicionales. Un escalar, un número, aparece en un gráfico como un punto, un objeto de cero dimensiones. Un vector, que tiene magnitud y dirección, aparecería en un gráfico como una línea, es decir, como un objeto de una dimensión. El tensor extiende esta idea a las dimensiones adicionales. Esto podemos interpretarlo como un conjunto de vectores relacionados, moviéndose en múltiples direcciones en un plano.

Lo veremos mejor de otra manera. En vez de pensar en un vector como un conjunto de coordenadas, lo podemos considerar una operación, es decir, un vector lo que haría es asociar una dirección a un número. Lo importante desde el punto de vista matemático es que la operación es lineal y homogénea. Gracias a esto, un vector queda completamente determinado por sus proyecciones en d direcciones, donde d es el número de dimensiones del espacio en el que se define. Por tanto, un vector se puede expresar como un conjunto de números que son en realidad sus proyecciones en un sistema de ejes coordenados.

Un vector es realmente un tensor de rango 1, asocia 1 dirección a un número. Un escalar, es un tensor de rango 0, asocia 0 direcciones a un número. Por tanto un tensor de rango 2 (un tensor ya por derecho propio), asocia dos direcciones arbitrarias a un número. Si quisiéramos expresarlo en términos de las coordenadas, como se hace con los vectores, necesitaríamos d x d números. Para un tensor de rango q, por tanto, necesitaríamos nq números.

Las ecuaciones de campo

Veamos ahora desde el punto de vista formal las ecuaciones de campo de la relatividad general. Si has llegado leyendo hasta aquí no te asustará demasiado, después de todo no es más que una igualdad tensorial en la que se relacionan un conjunto de tensores 4 x 4 (simétricos, pero en esto no vamos a entrar ahora), para un espaciotiempo de 4 dimensiones.

Donde Rμν es el tensor de curvatura de Ricci del que hablábamos más arriba, R es la curvatura escalar (simplificando, la curvatura entendida en el sentido que hablábamos más arriba, un número asociado a un punto del espacio), gμν es el tensor métrico (una generalización del campo gravitatorio y principal objeto de interés), G es la constante gravitacional de Newton, c la velocidad de la luz en el vacío y Tμν el tensor de energía-impulso.

Los índices en los tensores son etiquetas, es una forma de llamarlos. En este caso se emplea la notación abstracta de Penrose. Se puede usar cualquier símbolo conveniente para los índices de los tensores. Tradicionalmente, las letras latinas se usan para indicar que se están usando coordenadas espaciales (x, y, z), mientras que las griegas se emplean para indicar coordenadas espaciotemporales (x, y, z, t).

Notas:

[1] Esta entrega de la serie puede saltarse sin pérdida de continuidad.

[2] En lo que sigue nos basamos mayormente en nuestro nuestro “Einstein y…la pizarra del Observatorio del Monte WilsonExperientia docet 17/12/2010

[3] La importancia de la cronología puede apreciarse en nuestro Desviación de la luz y falsabilidad

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Las ecuaciones de campo de la relatividad general se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La primera imagen de Sagitario A* podría ser la prueba “definitiva” de la relatividad general
  2. La relatividad del tiempo (y 3)
  3. La relatividad de la masa
Kategoriak: Zientzia

¿Quién llorará por los animales feos cuando desaparezcan?

Al, 2018-03-26 11:59

El pez gota ostenta el dudoso honor de ser considerado el animal más feo del mundo (Fuente: FishesOfAustralia)

Hace apenas unos días murió Sudán, el último rinoceronte blanco del norte macho. Es una de las cinco especies de rinocerontes que hay en el mundo, y con la muerte del último macho, podemos darla oficialmente por extinta. Quedan con vida aun dos hembras, una hija y una nieta de Sudán, y se espera que utilizando técnicas de fecundación in vitro haya una posibilidad, aunque sea pequeña, de recuperar algún día la especie.

Pero la muerte de Sudán es un símbolo de nuestro fracaso en la conservación de la biodiversidad. La hemos fastidiado, queridos congéneres, y Sudán es la última prueba que nos ha llegado, un mensaje alto y claro. Ojalá sirva como toque de atención y nos pongamos las pilas con esto. La Tierra es hogar de millones de especies y nosotros somos la única con conciencia y responsabilidad para preservarla para todas las demás.

Sudan, el último rinoceronte blanco del norte macho, vivió sus últimos años custodiado para protegerle de los cazadores furtivos (Fuente: Ol Pejeta Conservancy)

Y digo todas. Insisto en ello porque cuando pensamos en conservación de especies solemos pensar en lindos koalas, gorilas imponentes, tigres majestuosos o simpáticos delfines. Y aunque es loable querer proteger a los cetáceos, ¿quién se acuerda de todas esas otras especies, las feas, las antipáticas, las despeluchadas, las viscosas, las patéticas? ¿Es que no merece el pez gota, nombrado una vez el animal más feo del mundo, sobrevivir igual que lo merece el lince o el águila imperial?

¿Puede el marketing salvar a los animales poco conmovedores?

Bob Smith es director del Instituto Durrell de Conservación y Ecología de la Universidad de Kent. En un artículo publicado en The Conversation a medias con Diogo Verissimo, de la Universidad de Oxford, comentaba que “nosotros como científicos conservacionistas queríamos comprobar si quizá el marketing podría salvar a estas otras especies. Si las empresas consiguen vender productos como fregonas y otros productos monótonos, ¿por qué no íbamos a poder recaudar dinero para salvar al poco glamuroso topo dorado gigante, incluso aunque parezca un pequeño cojín peludo con una pequeña nariz pegada?”.

Así que Smith y Verissimo compararon dos estrategias de recaudación de fondos para la conservación de especies, una de WWF y otra de la Sociedad Zoológica de Londres a través de su programa EDGE of Existence (al borde de la existencia). Ambas campañas eran muy diferentes: la de WWF trataba de recaudar dinero para un amplio abanico de proyectos que iban desde hacer frente al cambio climático y el comercio ilegal de animales salvajes a la conservación de los océanos y los bosques, mientras que la de EDGE estaba centrada en salvar a 100 mamíferos en peligro de extinción.

“Dado los diferente de ambas campañas queríamos ver si el marketing suponía alguna diferencia”, explican los autores, y para eso había que tener en cuenta qué animales se utilizaban como reclamo y cuál era su grado de atractivo, algo que depende de distintas cosas, como por ejemplo de si son bonitos, adorables, grandes o famosos.

Para crear una escala de atractivo animal se eligió a 850 personas involucradas en la conservación y se les enseñó una selección de imágenes, escogidas al azar, de entre las que ambas campañas estaban utilizando, y se les pidió que las clasificasen.

Comenzaron por la campaña de WWF, que recauda dinero a través de la adopción de los animales. Cuando la gente dona dinero, otorgan su apoyo a especies bien conocidas, y a cambio consiguen un animal de peluche, fotos de esos animales y certificados de adopción. El dinero donado va a acciones y proyectos que no solo benefician a los animales adoptados, sino a todo el ecosistema en general.

¿Cómo no iba a conmovernos la penosa situación de los adorables pandas? Solo un corazón de hielo se resistiría a intentar salvarlos (Fuente: Wikipedia Commons)

Los científicos determinaron que dos factores en concreto influían las elecciones de los donantes a WWF: el atractivo del animal y el grado de amenaza de extinción que sufrieran. “Las campañas de marketing no tenían ningún efecto. Daba igual como estuviesen descritas o presentadas, las especies más atractivas siempre reciben más donaciones, probablemente porque la gente ya las conoce y le gustan”.

Es posible salvar a ratas y murciélagos si sabes cómo

El programa EDGE funciona de forma diferente. Aunque apoya algunas especies mundialmente conocidas, como el elefante asiático, muchas otras son mucho menos atractivas, incluyendo un amplio grupo de ratas y murciélagos. Cada una de estas especies aparece en su web y los usuarios pueden aprender cuanto quieran sobre ellas.

En este caso, los resultados de Smith y Verissimo muestran que si bien la gente en general se muestra más interesada por donar para especies atractivas, en este caso las estrategias de marketing sí que influyen en la decisión. Los animales a los que se daba más visibilidad y se promocionaba conseguían más atención de los donantes.

No es tan lindo como un koala, pero ¿es que acaso el jerbo orejudo no merece nuestra ayuda? (Fuente: Wikipedia Commons)

Al comparar las dos campañas, los resultados muestran que entre 2011 y 2017 los animales que más dinero recaudaron en la web de WWF fueron el oso polar, el oso panda, el tigre y el leopardo de las nieves, mientras que en la web de EDGE fueron el delfín chino de río (ya extinto), el jerbo orejudo, el loris esbelto rojo y el murciélago de hocico de cerdo.

Los autores creen por tanto que utilizar técnicas de marketing con habilidad puede ayudar a recaudar fondos no solo para los animales que a todos nos derriten el corazón, sino también para los que no querríamos encontrarnos trepando por la pared de nuestra casa. Para estimar el impacto que podrían tener esas técnicas de marketing, crearon un modelo matemático basado en los datos recogidos del proyecto EDGE, una ecuación capaz de predecir las donaciones basándose en el atractivo del animal (algo que es fijo) y si fue o no promocionado por la organización en su web (algo que es variable).

Utilizando esa fórmula simularon distintas situaciones para los 10 animales más atractivos y los 10 menos atractivos según la clasificación hecha por los voluntarios del estudio. Si el marketing no intervenía, el modelo estimaba que las especies más adorables recaudarían hasta diez veces más que las más desagradables o feas. Pero al introducir el marketing que podía llevar a cabo la organización (situar las diez especies menos atractivas en las zonas destacadas de su web), el modelo predecía que las donaciones se multiplicarían por 26.

Sin un poquito de ayuda, un topo dorado gigante nunca tendrá el éxito de recaudación de un delfín, un tigre o un águila (Foto: Globalspecies.org)

Esto quiere decir, aseguran los dos autores del artículo, que las especies feas, al menos en lo que se refiere a ratones, murciélagos y similares, no lo tienen todo perdido y que hay mucho trabajo que los activistas y conservacionistas pueden hacer para echarles una mano.

Pero eso no es todo. El éxito de una campaña de marketing para salvar una especie, o un entorno, depende también de otros factores. El estudio Asignación Óptima de Recursos entre Especies Amenazadas: un Protocolo de Priorización de Proyectos, publicado en 2009, analizaba cuál es la mejor forma de gestionar el dinero dedicado a conservación, que por desgracia nunca es suficiente, para que sea lo más eficiente posible. “La literatura académica dedicada a la asignación sistemática de prioridades normalmente recomienda hacer un ranking de especies basándose en varios criterios, incluyendo el nivel de amenaza y el valor de esa especie en términos de distinción evolutiva, importancia ecológica y significado social. Pero este enfoque ignora dos aspectos cruciales: el coste del proyecto y las probabilidades de que el proyecto sea un éxito”.

Aclaran Smith y Verissimo que su estudio no analizó si una u otra estrategia de marketing sirvió para aumentar el número total de donaciones, pero sí que fue muy útil para aumentar el número de especies que la población reconoce y en cuya supervivencia se implica. No solo los gorilas o los osos panda tienen derecho a sobrevivir, ¿o es que nadie llorará al pez gota cuando desaparezca, igual que estamos todos ahora llorando por Sudán?

Referencias:

Increased conservation marketing effort has major fundraising benefits for even the least popular species. Diogo Verissimo, Robert J. Smith et al. Biological Conservation, Julio 2017.

Asignación Óptima de Recursos entre Especies Amenazadas: un Protocolo de Priorización de Proyectos. Liana N. Joseph, Richard F. Maloney, Hugh P. Possingham. Conservation Biology. Marzo 2009.

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo ¿Quién llorará por los animales feos cuando desaparezcan? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El tamaño relativo de los órganos animales
  2. Las actividades animales
  3. Los animales que respiran en agua
Kategoriak: Zientzia

Umami

Ig, 2018-03-25 11:59

Saccharina japonica

En 1909 el profesor de química Kikunae Ikeda publicó en japonés un artículo en el que propuso la existencia de un sabor básico no reconocido antes como tal: el umai (sabroso en japonés). Hasta ese momento se pensaba que los seres humanos teníamos receptores sensoriales gustativos específicos para los sabores dulces, salados, ácidos y amargos. Esos eran los considerados cuatro sabores básicos, cada uno con su receptor. El umai es muy característico del caldo (dashi) que preparan en Japón con bonito deshidratado y konbu, que es el nombre común del alga marrón Saccharina japonica. Ikeda denominó umami al nuevo sabor básico; el sufijo mi en japonés significa esencia.

Mediante un procedimiento de extracción que constaba de trenta y ocho pasos, Ikeda obtuvo del alga una sustancia cuyos cristales tenían su mismo sabor; la identificó como ácido glutámico. Su sal de sodio -el glutamato sódico- fue la forma del compuesto que proporcionó el mejor y más intenso sabor a umami. El ácido glutámico es un aminoácido, una de las sustancias de las que están formadas las proteínas, solo que este cumple, además, otras funciones en los seres vivos. Ocupa una posición central como intermediario en numerosas vías metabólicas. Y es un importante neurotransmisor (molécula que transmite información entre neuronas), el más abundante en el sistema nervioso de los vertebrados.

El glutamato está presente en muchos alimentos ricos en proteínas, como la carne. Además, somos capaces de detectar su presencia en la comida incluso en concentraciones ínfimas, por lo que es un indicador excelente de su valor nutricional. Pero hay más alimentos ricos en este aminoácido, como el tomate cocinado y ciertos alimentos fermentados, como el queso. Y la leche humana tiene 10 veces más concentración de glutamato que la de vaca, lo que da una idea de la gran importancia que este aminoácido tiene para los seres humanos ya desde que nacemos.

Tras el hallazgo del papel e importancia gustativa del glutamato, un discípulo de Ikeda extrajo del bonito deshidratado otra sustancia, el inosinato, que también contribuye al umai propio del dashi. El inosinato es un nucleótido cuya presencia en el alimento refuerza el efecto del glutamato. El mismo efecto ejerce el guanilato -otro nucleótido- que fue extraído de levaduras algunos años después por otro investigador japonés. El guanilato se encuentra en vegetales y hongos, y además de en las levaduras, pueden extraerse cantidades importantes de setas shitaki deshidratadas. Tanto el inosinato como el guanilato son, como lo es el glutamato, indicadores del valor nutricional del alimento; por esa razón tenemos receptores específicos para esas sustancias.

Tras su descubrimiento, Ikeda patentó un método para producir glutamato monosódico y desde entonces ha sido muy utilizado como potenciador de sabor. En la actualidad se extrae del konbu. Con ese propósito se cosechan anualmente dos mil quinientos millones de toneladas del alga en las costas de China. Entre el 2 y el 3% de la masa seca de Saccharina japonica es glutamato. Tan alto contenido es debido a que su presencia en el interior de las células del alga permite a estas igualar su concentración interna de solutos con la del agua de mar y evitar así la deshidratación. Lo interesante de ese fenómeno es que hay animales marinos que acumulan en sus tejidos glutamato y otros aminoácidos exactamente por la misma razón que lo hacen las algas: impiden así que el agua salga de su interior debido al efecto osmótico. He aquí un hermoso capricho de la naturaleza: ante un mismo problema, animales y vegetales recurren a una misma solución, solución que, además, encierra el secreto de nuestra predilección por ciertos alimentos.

—————————————————————–

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

Este artículo fue publicada en el diario Deia el 17 de diciembre de 2017.

El artículo Umami se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cuando las algas rojas no pueden gestionar los radicales libres
  2. Los invasores
  3. Identificada la proteína que provoca la inflamación tras un ictus
Kategoriak: Zientzia

Naukas Bilbao 2017 – Déborah García Bello: Saboer

La, 2018-03-24 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

El grafiti es un arte efímero que para poder saborearlo hay que saber. Deborah García Bello conseguirá que lo mires de otra manera en apenas 10 minutos.

Deborah García: Saboer

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – Déborah García Bello: Saboer se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – Mónica Lalanda: Una muerte de cómic
  2. Naukas Bilbao 2017 – Álex Méndez: Luz de luna
  3. Naukas Bilbao 2017 – Laura Morrón: La gran divulgadora
Kategoriak: Zientzia

Salud ósea en estudiantes universitarios

Or, 2018-03-23 17:00

La osteoporosis es una enfermedad asociada habitualmente con la edad y la mujer, aunque cada vez hay más varones que la padecen. Esta enfermedad se trata farmacológicamente en el momento en que se detecta. Sin embargo, la prevención en la juventud es una estrategia a tener en cuenta para llegar a la madurez con huesos bien mineralizados y de calidad.

Un estudio llevado a cabo por un grupo de investigación de los departamentos de Fisiología y Enfermería de la UPV/EHU ha analizado la salud ósea de 156 estudiantes de entre 18 y 21 años. Esta es una de las escasas investigaciones realizadas sobre la calidad del hueso de personas adultas que aún no han llegado al punto álgido de madurez ósea (21-30 años). Hasta ahora lo que se han realizado son principalmente estudios retrospectivos de los factores que se cree que son determinantes de la calidad ósea.

Idoia Zarrazquin, una de las autoras, explica que “la mayoría de los estudios realizados hasta el momento están centrados en la edad adulta y en el inicio de la decadencia ósea, traducida en osteoporosis, sobre todo entre las mujeres a partir de los 50 años. Nosotras consideramos que es importante hacer estos estudios previos para conocer qué influye positivamente en la calidad del hueso, porque el margen de mejora es más amplio ya que por delante hay más de una década para incrementar la mineralización lo antes posible”.

Ejercicio y nutrición equilibrados

En este estudio, se ha analizado la actividad y condición física, la composición corporal y la nutrición de sujetos jóvenes (61 varones y 95 mujeres) desde septiembre de 2016 hasta mayo de 2017. Se registraron sus características antropométricas, el consumo dietético, la capacidad aeróbica, la fuerza muscular y la actividad física que realizan habitualmente. Además, se midió su estado óseo mediante ultrasonidos, una técnica no invasiva y sencilla de utilizar.

El conjunto de jóvenes estudiantes que ha participado en la investigación presentan en general una buena calidad ósea. Son estudiantes que en su mayoría realizan deporte: de forma más vigorosa los varones, de manera más moderada las mujeres. Respecto al calcio, los hombres consumen una media de 1.080 mg/día, es decir, por encima de las recomendaciones de la Organización Mundial de la Salud (1000 mg/día), mientras que las mujeres no llegan a este valor (814 mg/día). En cuanto a la vitamina D, ni varones (3,88 mg/día) ni mujeres (3,10 mg/día) alcanzan lo recomendado por la OMS (5mg/día).

Actividad física sí, pero sin pasarse

Aunque los jóvenes analizados presentan una buena calidad ósea general, ésta puede ser mejorable para ralentizar la disminución ósea que se dará con la edad. En este sentido, Gotzone Hervás, primera firmante del estudio, concreta que el conocer los factores que ayudan a la formación ósea puede servir para prevenir estas enfermedades. “Sabemos que la actividad física mejora el músculo y fortalece el hueso. Existe una interconexión entre ellos y, si la actividad es intensa, ambos mejoran, resistirán mejor el paso de los años y afrontarán mejor la decadencia ósea”.

Por tanto, la actividad moderada-intensa y los deportes de impacto son recomendables, pero hay que equilibrarlos con la adecuada nutrición otra de las autoras, Fátima Ruiz-Litago. “La tensión y fuerza muscular mejora la mineralización del hueso, pero eso no significa que cuanto más mejor, porque está demostrado que deportistas de élite también sufren osteoporosis. Es decir, la actividad física tiene que ser moderadamente intensa, sin sobrepasarse; sobre todo, entre las mujeres. Cuando el ejercicio es muy intenso las necesidades nutricionales también son muy elevadas y, en el caso de las mujeres deportistas, muy difíciles de cubrir por sus propias características físicas y hormonales. Es por ello que es más habitual de lo pensado que entre deportistas de élite se den casos de osteoporosis”.

En definitiva, los investigadores de la UPV/EHU concluyen que, además de una correcta nutrición en calcio y vitamina D, la actividad física contribuye a acumular minerales óseos de manera que al llegar a la madurez el índice de rigidez ósea sea alto y se contrarreste la decadencia que se produce a partir de los 30/35 años y sobre todo a partir de los 50. “Las futuras recomendaciones para prevenir la osteoporosis también pasarán por favorecer la fuerza muscular”, asegura Idoia Zarrazquin.

Referencia:

Hervás, G.; Ruiz-Litago, F.; Irazusta, J.; Fernández-Atutxa, A.; Fraile-Bermúdez, A.B.; Zarrazquin, I. (2018) Physical Activity, Physical Fitness, Body Composition, and Nutrition Are Associated with Bone Status in University Students Nutrients doi: 10.3390/nu10010061

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Salud ósea en estudiantes universitarios se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La sorprendente densidad ósea de los atletas kenianos
  2. La gestión de la salud y seguridad en el trabajo de las mujeres
  3. El método Feldenkreis y las personas con discapacidad intelectual
Kategoriak: Zientzia

¿Qué permitió las increíbles fosilizaciones de Burgess Shale?

Or, 2018-03-23 12:00

Hace algo más de una década, una joven Chenoa cantaba aquello de “Estoy cansada de cuerpos duros”. Probablemente, escribió la letra de la canción pensando en todos aquellos paleontólogos que se dedican al estudio de organismos (o parte de ellos) fósiles que no tenían ninguna parte dura.

Y es que si eres una almeja tendrás muchas más posibilidades de pasar al registro fósil, esa suerte de posteridad geológica que hoy usamos para completar el árbol de la vida, que una grácil medusa gracias precisamente a esos cuerpos duros y mineralizados de los que se quejaba amargamente la cantante marplatense.

Bromas aparte, el registro fósil tiene un sesgo de conservación brutal hacia la preservación de las partes duras de los organismos, como pueden ser los huesos o las conchas, mientras que los organismos formados exclusivamente por partes blandas suelen descomponerse mucho antes de fosilizar sin dejar rastro alguno de su existencia.

Figura 1. Este pariente de la avispa lo tuvo realmente difícil para fosilizar, pero tras su muerte cayó en un ambiente muy favorable para su fosilización.

Afortunadamente para nosotros, existe lo que conocemos como Lagerstätte, un grupo de yacimientos fosilíferos entre los que se encuentran aquellos que permiten una preservación excepcional de los organismos, tanto de sus partes blandas, como de organismos completos.

Uno de los detalles que hoy día desconocemos con exactitud es que permite precisamente la existencia de este tipo de yacimientos: ¿Será un rápido enterramiento de los fósiles? ¿Tendrá que ver con la mineralogía existente? ¿Influirá el tamaño de grano de la roca? ¿O quizás hay algún factor que no hemos tenido en cuenta hasta ahora?

En las últimas décadas se ha puesto mucho énfasis en la búsqueda de biomarcadores3, moléculas orgánicas complejas formadas por la actividad de los organismos vivos, que podemos encontrar en las rocas y que atestigüen la presencia de vida no solo en nuestro planeta sino, por ejemplo, en Marte, donde cada vez somos capaces de enviar instrumentos más sensibles, capaces de caracterizar con gran detalle la composición química de las rocas.

No sabemos si se desarrolló o existe vida en otros lugares más allá de nuestro planeta. Pero si esto ocurrió en algún momento, es probable que también comenzase su andadura con cuerpos blandos, sin mineralizaciones.

Si fuésemos capaces de conocer las condiciones, los procesos y los ambientes que permitieron en nuestro planeta la aparición de las Lagerstätte, podríamos comenzar a buscar esta suerte de geomarcadores1 también en otros puntos del Sistema Solar, con vistas a decidir los lugares de aterrizaje de futuras misiones que tengan la posibilidad de estudiar la existencia de vida en el pasado.

Un nuevo estudio2 llevado a cabo por científicos de distintas universidades británicas y norteamericanas ha abordado este problema estudiando una de las mejores Lagerstätte conocidas, la de Burgess Shale, que toma su nombre de un yacimiento Canadiense descubierto a principios del siglo XX y que data de hace unos 500 millones de años, en el Cámbrico, momento en el que ocurre una gran diversificación evolutiva en el reino animal.

Gracias a este tipo de yacimientos, de los que se conocen varias docenas en todo el mundo, se ha podido completar de una manera mucho más exhaustiva el árbol de la vida en el Cámbrico ya que sin estos, más del 80% de los organismos aparecidos en este periodo, no habrían dejado rastro alguno en el registro fósil.

¿Qué hace a este tipo de yacimientos tan especiales que permiten la excepcional preservación de las partes blandas?

Desde hace un par de décadas, sabemos que algunas arcillas son capaces de facilitar la fosilización ya que son capaces de adherirse a cierto tipo de enzimas encargadas de romper la célula tras la muerte del organismo, dejándolas inactivas y por lo tanto ralentizando la descomposición.

Pero en los últimos años, diversos experimentos han mostrado como la presencia de arcillas como la caolinita y la bertierina son capaces de interferir en el crecimiento de algunas bacterias encargadas de la putrefacción de los organismos muertos… ¿Podría la presencia de cierto tipo de arcillas tener una relación fundamental con la aparición de yacimientos del tipo de Burgess Shale?.

Para resolver esta cuestión, este equipo de científicos ha analizado en detalle la mineralogía de más de 200 muestras de fósiles del Cámbrico provenientes de 19 yacimientos de cuatro continentes, de las cuales 131 correspondieron a fosilizaciones del tipo de Burgess Shale, y 82 en las que solo aparecen restos mineralizados.

Los resultados muestran que los fósiles de partes blandas se conservan mejor en rocas que contienen bertierina, que en estudios anteriores ya se había demostrado su efecto contra las bacterias que provocan la putrefacción de los tejidos.

Hoy en día esta arcilla se forma principalmente en ambientes tropicales, con aguas ricas en hierro, lo que probablemente sirva como indicador para interpretar que el ambiente en el que vivieron estos organismos también fue las aguas de algún mar u océano tropical del Cámbrico.

Aunque este nuevo análisis mineralógico consigue predecir con una tasa de éxito de alrededor del 80% la posibilidad de fosilización de tipo Burguess Shale en rocas sedimentarias de grano fino formadas durante el Cámbrico, es manifiesto que hay otros factores que también son importantes para una buena preservación, como puede ser un enterramiento rápido, la presencia de aguas pobres en oxígeno o la composición de las aguas.

Este estudio abre la puerta a la búsqueda de nuevos yacimientos de tipo Burgess Shale en nuestro planeta que hayan podido pasar desapercibidos, pero quizás pueda ser también el pistoletazo de salida para localizar rocas favorables a la fosilización en lugares como Marte, donde sabemos que hubo un ambiente mucho más adecuado para el desarrollo de la vida al principio de su historia, y de haber existido esta, quien sabe si también quedó registrada en las rocas como ocurrió en con la que habitaba aquellos mares tropicales del Cámbrico.

Este artículo lo ha escrito Nahum Méndez Chazarra y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU

Referencias:

[1] J. Martinez-Frias, E. Lázaro, A. Esteve-Núñez, and C. M. B. L. Beard. Biogeochemical cycling of iron isotopes. Science. CrossRef PubMedJohnson, Geomarkers versus Biomarkers: Paleoenvironmental and Astrobiological Significance, vol. 36. 2009.

[2] R. P. Anderson, N. J. Tosca, R. R. Gaines, N. M. Koch, and D. E. G. Briggs, “A mineralogical signature for Burgess Shale – type fossilization,” vol. 46, no. 4, pp. 2–5, 2018.

[3] M. Gargaud and W. M. Irvine, Encyclopedia of Astrobiology. 2015.

El artículo ¿Qué permitió las increíbles fosilizaciones de Burgess Shale? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La aparición de los tejidos musculares y el registro fósil
  2. Del zumo de naranja a la selva, un ejemplo de reciclaje extremo
  3. Las cartas de Darwin: ¡La geología por encima de todo!
Kategoriak: Zientzia

Catástrofe Ultravioleta #23 TOTALIDAD

Og, 2018-03-22 17:00

Catástrofe Ultravioleta #23 TOTALIDAD

El pasado 21 de agosto de 2017 tuvo lugar uno de los eclipses totales de Sol más seguidos de la historia. Millones de personas pudieron contemplar aquel apasionante momento y desde Catástrofe Ultravioleta no quisimos quedarnos atrás. Aprovecharemos este eclipse para conocer infinidad de curiosidades sobre nuestra estrella y descubrir qué fenómenos ocurren durante los mágicos minutos en los que el Sol queda oculto tras la Luna. Un viaje que nos llevará desde los descubrimientos de Galileo hasta las futuras misiones espaciales.

Agradecimientos: Carolina Jiménez (OKinfografia), José Miguel Viñas (Divulgameteo), Miquel Serra-Ricart (IAC), Expedición Sheilos, GOAT (Grupo de Observadores Astronómicos de Tenerife), Alejandra Godell, Héctor Socas (IAC), José Carlos del Toro Iniesta (IAA)

** Catástrofe Ultravioleta es un proyecto realizado por Javier Peláez (@Irreductible) y Antonio Martínez Ron (@aberron) con el patrocinio parcial de la Cátedra de Cultura Científica de la Universidad del País Vasco y la Fundación Euskampus. La edición, música y ambientación obra de Javi Álvarez y han sido compuestas expresamente para cada capítulo.

El artículo Catástrofe Ultravioleta #23 TOTALIDAD se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Preparados para una Catástrofe Ultravioleta
  2. Catástrofe Ultravioleta #13 LEVIATÁN
  3. Catástrofe Ultravioleta #01 Expedición
Kategoriak: Zientzia

El falso pan integral tiene los días contados

Og, 2018-03-22 11:59

assortment of baked bread on wood table

El pan integral es una opción más saludable que el pan blanco, sin embargo, no todos los panes que lucen la palabra integral en su etiquetado son realmente integrales. La normativa vigente lo permite, cosa que no ocurre en otros países. Desde el Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente (Mapama) se ha presentado un borrador que pretende derogar la normativa actual para que llamemos a cada cosa por su nombre y no nos sigan vendiendo, al amparo de la ley, falso pan integral.

Diferencias entre harina integral y refinada

Las harinas integrales son aquellas que se fabrican moliendo el cereal entero. Los cereales tienen tres partes: la cáscara del cereal es el salvado, donde está la mayor parte de la fibra, la parte central es el endospermo, compuesto mayoritariamente por almidón, y el núcleo es el germen, donde se concentra la fracción grasa del cereal.

Las harinas integrales de mayor calidad son las que se muelen a la piedra. La razón es que no se desperdicia ni se separan las diferentes partes del grano. Estas harinas pueden tamizarse para separar parte de salvado y así elaborar una semi-integral.

Según el tipo de molienda que se utilice, obtendremos harinas con diferente tasa de extracción. La tasa de extracción indica los kilos de harina que se obtienen moliendo 100 kilos de cereal. Así, una harina con tasa de extracción del 100% es una harina 100% integral, con el grano entero, y una harina con una tasa de extracción del 70% será, para los panaderos, una harina refinada.

En cambio, la mayor parte de las harinas que encontramos en el mercado suele ser fruto de un tipo de molienda por fases. Normalmente en cada una de estas fases se separan las diferentes partes del grano. Por un lado conseguimos una harina blanquísima que solo contiene endospermo, una harina oscura hecha con el salvado y, por otro lado, el germen, que suele retirarse porque su contenido graso hace que la harina se ponga rancia con más facilidad.

Las harinas integrales fabricadas a partir de molienda en fases se fabrican mezclando en la proporción deseada la harina blanca con la harina de salvado. A veces están tan poco logradas que las fases pueden separarse utilizando un colador. Los panaderos suelen llamar a estas harinas de mezcla ‘falsa integral’. Algunos fabricantes de harina integral lo indican en el envase como dos ingredientes: harina y salvado.

Los panaderos la prefieren integral

Los panaderos que elaboran el pan de forma tradicional, empleando masa madre, suelen usar harinas integrales. La razón es que las levaduras se encuentran en mayor proporción en el salvado. Estas levaduras rompen el almidón en azúcares simples y los fermentan formando las características burbujas del pan.

En cambio, al hacer pan con harina integral, la fibra absorbe más agua y esto obstaculiza el desarrollo del gluten, es decir, se tarda más en conseguir una masa elástica.

El manejo de harinas integrales para elaborar pan requiere más destreza que el manejo de harinas refinadas. No obstante, la complejidad de la elaboración del pan integral repercute en un producto con mejores cualidades nutricionales.

El pan integral es más saludable que el pan blanco

Las harinas integrales contienen todas la vitaminas y nutrientes del cereal completo, siendo especialmente interesante para nuestra salud su alto contenido en fibra. La fibra favorece el tránsito intestinal y además hace que el pan sea más saciante.

El pan integral tiene las mismas calorías que el pan refinado, así que es un mito eso de que ‘engorda menos’, pero al resultar más saciante necesitaremos comer menos cantidad.

La fibra también hace que el pan integral tenga menor índice glucémico, es decir, hace que metabolicemos los carbohidratos lentamente y que no nos suba la glucosa en sangre. Por el contrario, los panes blancos tienen alto índice glucémico, lo que significa que se metabolizan muy rápido dando elevados y repentinos picos de glucosa en sangre y, en consecuencia, picos de insulina. Este es el motivo por el que el pan blanco es poco saciante y por el que las personas con diabetes limitan su consumo.

La ley actual permite llamar integral a casi cualquier pan

En la normativa vigente sobre fabricación y comercio del pan, el pan integral se define como «el elaborado con harina integral», sin especificar el porcentaje que debe llevar este producto para ser considerado integral. La harina integral, por su parte, «es el producto resultante de la molturación del grano de cereal y cuya composición corresponde con la del grano del cereal íntegro», sin indicar qué porcentaje de grano entero debe llevar.

Así, un pan con un bajo contenido de harina integral puede llevar en su envase la palabra integral. La normativa se lo permite. También puede indicar «fuente de fibra» si contiene más de 3 g de fibra por cada 100 g de producto, o «alto contenido en fibra» si tiene 6 g de fibra. Tenemos que tener en cuenta que 100 g de pan elaborado con 100% harina integral de trigo contendrá más de 8 g de fibra.

Existe, por tanto, una especie de vacío legal respecto a la denominación integral del pan. Algunos productos lucen en su etiqueta la frase «elaborado con harina 100% integral», cuando en realidad llevan un porcentaje ínfimo de harina integral. Claro que no es lo mismo decir «elaborado con harina 100% integral» que «elaborado con 100% harina integral». El primero solo dice que contiene harina integral (y que esa parte de harina integral es 100% integral) y el segundo dice que el 100% de la harina empleada es integral.

Una nueva normativa para los panes integrales

El Gobierno quiere acabar con estas tretas y por eso ha propuesto un cambio de normativa a través de un proyecto presentado por el Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente (Mapama). El objetivo es, entre otros, proporcionar una información adecuada al consumidor que facilite su elección de compra. Este proyecto se ha escrito a semejanza del de los países nórdicos, donde ya está regulado que solo pueden denominar pan integral a aquel que contenga más del 80% de harina integral.

La futura normativa concretará las características que deberá tener el pan integral y unificará criterios: «Se denominarán ‘pan 100% integral’ o ‘pan integral’ los panes elaborados con harina exclusivamente integral, excluyendo de dicho porcentaje las harinas procesadas/malteadas. Los panes en los que la harina utilizada en la elaboración no sea exclusivamente integral incluirán en la denominación la mención ‘elaborado con harina integral X%’». Si el porcentaje es inferior al 100%, el porcentaje exacto deberá figurar en el frontal del envase con la misma tipografía, tamaño y color que la palabra integral.

Los panes elaborados con harinas diferentes al trigo, como espelta, kamut, centeno, etc. podrán denominarse ‘pan de…’ siempre y cuando contengan al menos un 50% de ese cereal.

Cómo saber si el pan que compramos es realmente integral

Hasta que la nueva normativa se aplique, todavía nos encontraremos panes en el mercado que se llaman integrales aun cuando contienen cantidades irrisorias de harina integral. A veces contienen semillas que los hacen parecer integrales.

Como en todos los alimentos envasados, la realidad del producto no esta en los eslóganes del frontal del envase, sino en la lista de ingredientes y en la tabla nutricional. Tenemos que prestar atención a la lista de ingredientes.

Los ingredientes van ordenados de mayor a menor cantidad en el producto. Así, un pan cuyo primer ingrediente contenga la palabra integral o grano entero, quiere decir que el ingrediente mayoritario sí es una harina integral. Además, entre paréntesis lucirá el porcentaje exacto de harina integral.

En los ejemplos mostrados en la imagen superior encontramos tostadas de pan con diferentes contenidos de harina integral, a pesar de que en el frontal todos se denominan integrales. En el primer producto el ingrediente principal es harina integral. Es, por tanto, el ingrediente mayoritario, aunque solo sea un 58% del producto. El ingrediente que le sigue es «harina de trigo», es decir, harina refinada. En el segundo producto, el ingrediente mayoritario es «harina de trigo», es decir, harina refinada. La integral es solo un 46%. En el tercer producto el ingrediente mayoritario sí es harina integral y en un porcentaje elevado: 88%. Además, el resto de los ingredientes son semillas, levadura, sal… No contiene ni azúcares ni harinas refinadas.

Para conocer la realidad de un pan integral debemos buscar un producto cuyo primer ingrediente sea «integral» o «grano entero». Si indica el porcentaje, será mejor cuanto mayor sea. Lo ideal es que tenga al menos un 80% de integral. Si en el resto de los ingredientes no aparecen ni azúcares ni otras harinas, estaremos ante una buena opción de compra.

Conclusión

La normativa actual permite llamar pan integral a cualquier pan que contenga harina integral, sea cual sea esa cantidad. El proyecto presentado por el Mapama pretende cambiar la normativa para que solo se pueda denominar integral al pan elaborado con un 100% de harina integral. Hasta que la normativa no cambie tendremos que seguir fijándonos en la lista de ingredientes. Y, si compramos pan fresco sin envasar, le preguntaremos a los panaderos.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo El falso pan integral tiene los días contados se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El mejor lacón con grelos tiene su ciencia
  2. El buen turrón tiene su ciencia
  3. La pantalla de tu móvil solo tiene tres colores
Kategoriak: Zientzia

Destruyendo asteroides con bombas atómicas

Az, 2018-03-21 17:00

Ilustración: Elena Khavina

Un numeroso equipo de físicos e ingenieros encabezados por A. Y. Arasova, del Instituto de Investigación Científica de Física Experimental Panruso (VNIIEF), el principal centro de investigación del complejo militar-industrial de Rusia en armas nucleares, ha modelado el impacto de una explosión nuclear en un asteroide que amenazase la Tierra. Para ello se fabricaron asteroides en miniatura y los bombardearon con un láser. La técnica de modelado desarrollada en este estudio es una forma de evaluar experimentalmente los criterios de destrucción de asteroides, así como la energía de la explosión necesaria para eliminar un objeto peligroso en curso de colisión con la Tierra.

Los asteroides son cuerpos celestes compuestos principalmente de carbono, silicio, metales y, algunas veces, hielo. Habitualmente se clasifican los objetos de más de 1 metro como asteroides, aunque este límite inferior aún está en discusión. En el otro extremo de la escala, los asteroides alcanzan los 900 kilómetros de diámetro. Viajando a 20 kilómetros por segundo, estos gigantes representan una amenaza creíble de aniquilar toda la vida en la Tierra.

Hay dos opciones básicas cuando se trata de proteger el planeta de la colisión con un asteroide: o se le desvía o se vuela en pedazos de tal manera que la mayoría n impacte con la atmósdfera y, los que lo hagan, se quemen en ella de tal modo que lleguen a la superficie sin causar daños catastróficos. Los autores de este estudio se han centrado en la segunda opción, creando un modelo experimental con el que comprobar los efectos de una poderosa onda de choque liberada por una explosión nuclear en la superficie del asteroide. El equipo de investigación demuestra que un breve pulso láser dirigido a una réplica en miniatura de un asteroide produce efectos destructivos similares a los de una explosión nuclear en una roca espacial real. Las distribuciones de calor y presión predichas para el evento real generalmente coinciden con las medidas en el experimento de laboratorio.

Para que el modelo de láser fuera preciso, los investigadores se aseguraron de que la densidad y rigidez del asteroide de laboratorio, e incluso su forma, imitaran las reales. Gracias a esta correspondencia precisa, los investigadores obtuvieron una forma de calcular directamente la energía requerida de una explosión nuclear en el asteroide real a partir de la energía de un pulso láser que destruye su réplica en miniatura.

La composición de los asteroides artificiales para las pruebas se corresponde a la de los meteoritos condríticos (básicamente de carbono), que representan aproximadamente el 90 por ciento de los restos de asteroides que alcanzan la superficie de la Tierra. Las réplicas se hicieron usando los datos sobre el meteorito recuperado del fondo del lago Chebarkul. Es el fragmento más grande del asteroide que entró en la atmósfera de la Tierra en febrero de 2013, explotando sobre el Óblast de Cheliábinsk, Rusia. El material del asteroide se fabricó usando una combinación de sedimentación, compresión y calentamiento, imitando el proceso de formación natural. A partir de muestras cilíndricas se hicieron asteroides de prueba esféricos, elipsoidales y cúbicos.

Estela del bólido de Cheliábinsk fotografiado desde Ekaterimburgo

Para estimar los criterios de destrucción de asteroides, los investigadores analizaron los datos disponibles del meteorito de Cheliábinsk. Ingresó a la atmósfera de la Tierra como un asteroide de 20 metros y se fracturó en pequeños fragmentos que no causaron daños catastróficos. Por lo tanto, tiene sentido afirmar que un asteroide de 200 metros ha sido eliminado si se fractura en pedazos con diámetros 10 veces más pequeños y masas 1.000 veces más pequeñas que la roca inicial. Por razones obvias, esta conclusión solo se cumple para un asteroide de 200 metros que entra en la atmósfera en un ángulo similar y para fragmentos que viajan a lo largo de trayectorias similares a la del meteoro de Cheliábinsk.

Los experimentos indican que para eliminar un asteroide de 200 metros, la bomba necesita liberar la energía equivalente a 3 megatones de TNT. A este dato se llegua porque los investigadores midieron que es necesario un pulso láser de 500 julios para destruir un modelo de 8-10 milímetros de diámetro. Para poner el dato en perspectiva, 3 megatones vendría a ser equivalente a la energía de todas y cada una de las bombas detonadas durante la Segunda Guerra Mundial, incluidas las bombas atómicas que se lanzaron sobre Hiroshima y Nagasaki; por otro lado tampoco es tanto: el explosivo más poderoso jamás detonado, la bomba Zar, construida por la Unión Soviética en 1961, liberó 58,6 megatones (aunque los números varían algo según las fuentes; este dato es el oficioso ruso); las bombas de hidrógeno estadounidenses de la Guerra Fría se estima que liberaban 25 megatones.

El equipo de investigación ahora planea expandir el estudio experimentando con réplicas de asteroides de diferentes composiciones, incluidas las que contienen hierro, níquel y hielo. También pretenden identificar con mayor precisión cómo la forma del asteroide y la presencia de cavidades en su superficie afectan el criterio de destrucción general.

De momento no hay amenazas inminentes de asteroides, por lo que el equipo tiene tiempo de perfeccionar esta técnica para evitar un desastre planetario.

Referencia:

Aristova, E.Y., Aushev, A.A., Baranov, V.K. et al. (2018) J. Exp. Theor. Phys. doi 10.1134/S1063776118010132

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo Destruyendo asteroides con bombas atómicas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Choques de asteroides, arte islámico y cuasicristales
  2. Asteroides, ¿de la amenza a la oportunidad?
  3. Los meteoritos ya no son lo que eran desde hace 466 millones de años
Kategoriak: Zientzia

Ilustraciones artísticas de un matemático

Az, 2018-03-21 11:59

El año 1990 la American Mathematical Society (Sociedad Matemática Americana) publicó un curioso libro que, bajo el título de Mathematical Impressions, recogía más de ochenta ilustraciones artísticas del matemático ruso Analoty T. Fomenko.

Portada del libro “Mathematical Impressions” del matemático A.T. Fomeko

Mi primer contacto con A. T. Fomenko fue a través de sus libros de Geometría Diferencial y Topología Algebraica, relacionados con mi área de investigación. Libros como Modern Geometry. Methods and Applications (1984, 1985 y 1990), Symplectic Geometry. Methods and Applications (1988) o Homotopic topology (1986), entre muchos otros.

El matemático ruso Anatoly Timofeevich Fomenko, que nació el 13 de marzo de 1945 en la ciudad ucraniana de Donetsk, por aquel entonces Stalino (URSS), fue un conocido topólogo y geómetra diferencial de la Universidad Estatal de Moscú, así como miembro de la Russian Academy of Sciences (Academia Rusa de Ciencias).

En 1969 publicó en ruso, junto con Dimitry B. Fuchs y Victor L. Gutenmacher, su libro Homotopic topology, que sería traducido al inglés en 1987. Las personas que leyeron este libro matemático se quedaron sorprendidas al encontrarse en el mismo una serie de ilustraciones artísticas en blanco y negro, y del tamaño de una página, que pretendían explicar visualmente algunos conceptos matemáticos muy complejos, pero que, al mismo tiempo, utilizando una estética oscura y expresionista, tenían un marcado carácter artístico. Una versión moderna de ese libro fue publicada en 2016 por Springer (GMT 273).

Veamos algunas de las ilustraciones que formaron parte de este libro. La primera de ellas, que inicia el libro es Esfera con cuernos de Alexander (1967), que ilustra un concepto topológico extraño como son las esferas con cuernos de Alexander (véase la entrada James Waddell Alexander de Marta Macho, para más información).

“Esfera con cuernos de Alexander” (1967), ilustración perteneciente al libro “Homotopic Topology”, que también fue recogida en el libro “Mathematical Impressions”

“Zoo topológico” (1967), ilustración perteneciente al libro “Homotopic Topology”, que también fue recogida en el libro “Mathematical Impressions”

La segunda ilustración de arriba es Zoo topológico (1967). La explicación que acompaña a la misma dice así:

En este espacio cavernoso, la galería de un gran castillo austero, tres seres observan desde arriba como otras criaturas pasan el tiempo en una colección de magníficas formas matemáticas, cada una siendo una perturbación diferente del espacio físico. Arriba a la derecha, un poliedro animado cobra vida y comienza a descomponerse en sus componentes, las conchas, como escorpiones, de las que está hecho. Observe la cola del aparente escorpión, arqueándose hacia arriba y hacia la cabeza de las conchas, revelando intuitivamente las facetas de la estructura y forma del objeto. Vea cómo las conchas finalmente se unen para crear un único poliedro infinito. Mientras tanto, en el centro del gran hall, un enorme toro, es decir, un objeto con forma de donuts, se está dando la vuelta (el interior pasa a ser exterior, y al revés), transformándose a sí mismo y al espacio que lo rodea. Curiosamente, a pesar de que el toro, que ha sido cortado o perforado, se retuerce en el espacio y se está dando la vuelta, el nuevo objeto sigue siendo un toro, aunque las superficies interna y externa se han intercambiado.

En la parte inferior izquierda, a la sombra de un gran pilar, yace un objeto llamado el collar de Antoine, bastante familiar en topología. A su derecha, descansa una película de jabón, que se extiende a través de un cable circular. Compuesto por la unión de una banda normal de Moebius con una banda triple de Moebius, esta superficie minimal es notable ya que puede contraerse continuamente a lo largo de su límite sin romperse. Incluso se puede transformar en otro objeto, conocido en topología como una casa de Bing con un agujero. Finalmente, en el centro hay un solenoide 2-adico.

Para las personas que el anterior texto solamente les parece un cúmulo de términos matemáticos incomprensibles, diremos que es una galería de imágenes de superficies topológicas interesantes. Entre los términos mencionados están “el collar de Antoine” del que podéis leer en la entrada Louis Antoine y su fabuloso collar, de Marta Macho, la famosa “banda de Moebius”, sobre la que podéis ver el video La banda de Moebius, de la sección Una de Mates del programa de TV Órbita Laika, o las películas de jabón, que son superficies minimales, sobre las que podéis ver este otro video Matemáticas con jabón, de Una de Mates.

Otra ilustración en la que se intenta explicar un proceso matemático es la siguiente, cuyo título es ¿Es posible darle la vuelta (el interior pasa a ser exterior, y al revés) a una esfera (de dimensión 2) en el espacio euclídeo tridimensional ambiente dentro de la clase de las inmersiones diferenciables (“suaves”)? (1985, aparece en la versión inglesa).

“¿Es posible darle la vuelta (el interior pasa a ser exterior, y al revés) a una esfera (de dimensión 2) en el espacio euclídeo tridimensional ambiente dentro de la clase de las inmersiones diferenciables (“suaves”)?” (1985), ilustración perteneciente al libro “Homotopic Topology”, que también fue recogida en el libro “Mathematical Impressions”

Para visualizar el proceso de darle la vuelta (el interior pasa a ser exterior, y el exterior pasa a ser interior) a una esfera (de dimensión 2) en el espacio euclídeo tridimensional, que se ilustra en la anterior imagen, puede verse el siguiente video… How to turn a sphere inside out:

Disfrutemos de un par de ejemplos más de ilustraciones de la publicación Homotopic Topology. La primera (aunque de su versión más moderna) tiene el título Fantasía sobre el tema de los fractales, análogos a los conjuntos de Cantor, y dimensión de Hausdorff no entera (1986).

“Fantasía sobre el tema de los fractales, análogos a los conjuntos de Cantor, y dimensión de Hausdorff no entera” (1986), ilustración perteneciente al libro “Homotopic Topology”, que también fue recogida en el libro “Mathematical Impressions”

Y la última ilustración que incluimos de Homotopic Topology tiene el enigmático título, para aquellas personas de fuera del mundo de las matemáticas, o más concretamente, de la topología algebraica, El problema de un algoritmo efectivo de cálculo de los grupos de homotopía de las esferas no está resuelto (ya aparece en la publicación de 1986).

“El problema de un algoritmo efectivo de cálculo de los grupos de homotopía de las esferas no está resuelto”, ilustración perteneciente al libro “Homotopic Topology”, que también fue recogida en el libro “Mathematical Impressions”

El matemático ruso continuó trabajando en la misma línea durante los siguientes años, llegando a realizar al menos 280 ilustraciones artísticas de conceptos y resultados matemáticos, no solamente de geometría y topología, sino también de otros tópicos como estadística, probabilidad o teoría de números.

En el libro Mathematical Impressions, publicado por la American Mathematical Society, en 1990, se incluyeron 84 ilustraciones, 23 de las cuales eran en color.

En la introducción de este libro A. T. Fomenko escribe: “Pienso en mis dibujos como si fueran fotografías de un mundo extraño, pero real, y la naturaleza de este mundo, uno de objetos y procesos infinitos, no se conoce bien. Claramente, existe una conexión entre el mundo matemático y el mundo real…. Esta es la relación que yo veo entre mis dibujos y las matemáticas.

A continuación, mostraremos algunas ilustraciones incluidas en este libro tan especial, que es Mathematical Impressions.

“Una superficie algebraica de Kummer y sus puntos singulares” (1971), del libro “Mathematical Impressions”, de A. T. Fomenko

Las superficies de Kummer son superficies algebraicas que tienen dieciséis puntos singulares. El ejemplo de Fomenko tiene 8 puntos singulares reales, como la superficie cuyo modelo físico (del Touch Geometry Project) mostramos a continuación.

Modelo físico de una superficie der Kummer con 8 puntos dobles reales, del proyecto Touch Geometry Project, de la Universidad Nacional de V. N. Kazarin Kharkiv

La siguiente obra recibe el título Fantasía geométrica sobre el tema de las funciones analíticas (1971).

“Fantasía geométrica sobre el tema de las funciones analíticas” (1971), del libro “Mathematical Impressions”, de A. T. Fomenko

También nos encontramos con una representación del infinito en la obra Infinito matemático (1977). El texto que acompaña la imagen es el siguiente:

Miles de caras en una multitud gritan, rodeando una sola cabeza ominosa. De hecho, esta imagen refleja las meditaciones de los matemáticos sobre el infinito, un concepto que acompaña a muchas teorías y que aparece de diferentes maneras en geometría, lógica, teoría de números y muchas otras áreas. Infinito potencial y real, paradojas de lógica, problemas irresolubles, la hipótesis del continuo y sus diversas versiones, matemáticas constructivas, intuicionismo (en el espíritu de Poincaré) -todos estos cobran vida mediante la existencia del infinito matemático, cuyo estudio presenta fascinantes problemas filosóficos sobre el conocimiento del mundo que nos rodea. En cuanto a las personas, un homeomorfismo adecuado puede identificar a diferentes seres humanos desde un punto de vista geométrico, comenzando con un único sujeto ideal. Todo esto también recuerda a los muchos artistas medievales que trataron de reflejar sus interpretaciones de infinitos físicos y morales sobre lienzos dedicados a los sufrimientos de Jesucristo.

“Infinito matemático” (1977), del libro “Mathematical Impressions”, de A. T. Fomenko

También realizó ilustraciones relacionadas con la probabilidad, como esta obra titulada Procesos aleatorios en probabilidad (1985).

“Procesos aleatorios en probabilidad” (1985), del libro “Mathematical Impressions”, de A. T. Fomenko

También reflexiones visuales sobre los importantes números irracionales π y e, como la obra Los remarcables números π y e (1985), en la que vemos los primeros decimales del número π (3,1415926535 8979323846 2643383279…), en la cara frontal del edificio, y los del número e (2,7182818284 5904523536 0287471352…), en la cara lateral.

“Los remarcables números π y e (1985)”, del libro “Mathematical Impressions”, de A. T. Fomenko

Y terminemos, casi, con dos ilustraciones con títulos incomprensibles para las personas que no trabajan en estos temas.

“Espines de dos variedades hiperbólicas cerradas compactas de dimensión 3” (1987), del libro “Mathematical Impressions”, de A. T. Fomenko

“Puntos singulares de campos de vectores y la capa frontera en el flujo de un líquido alrededor de un cuerpo rígido” (1980), del libro “Mathematical Impressions”, de A. T. Fomenko

Y para terminar, esta vez sí, una obra relacionada también con temas no matemáticos.

“La tentación de San Antonio” (1979), del libro “Mathematical Impressions”, de A. T. Fomenko

Bibliografía

1.- Anatoly T. Fomenko, Mathematical Impressions, AMS, 1990.

2.- B. A. Dubrovin, S. P. Novikov, A. T. Fomenko, Modern Geometry. Methods and Applications. Springer-Verlag, GTM 93 (Part 1), 1984; GTM 104 (Part 2), 1985; GTM 124 (Part 3) 1990.

3.- A. T. Fomenko Symplectic Geometry. Methods and Applications. Gordon and Breach, 1988.

4.- A. T. Fomenko, D. B. Fuchs, V. L. Gutenmacher, Homotopic topology, Akademiai Kiadó, 1986.

5.- Anatoly Fomeko, Dimitry Fuchs, Homotopical Topology, Akademiai Kiadó, 1989 (Springer, GTM 273, 2016).

6.- Mathematical Impressions

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Ilustraciones artísticas de un matemático se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Variaciones artísticas del teorema de Napoleón
  2. Pierre Fatou, un matemático poco (re)conocido
  3. El problema matemático de las cartas extraviadas
Kategoriak: Zientzia

Respuesta de los sistemas respiratorio y cardiovascular al ejercicio físico

Ar, 2018-03-20 17:00

Cuando el organismo humano pasa de encontrarse en condiciones de reposo a desarrollar una actividad física intensa, sus sistemas respiratorio y cardiovascular modifican sus prestaciones para dar respuesta a las demandas metabólicas elevadas que impone la actividad física. Ya vimos aquí como se regula la respiración, y aquí y aquí, la circulación sanguínea, que son las dos funciones que permiten ajustar el suministro de oxígeno a las necesidades. Veremos a continuación cuáles son las magnitudes propias del funcionamiento del sistema respiratorio y del sistema cardiovascular en condiciones de reposo, primero, y de actividad intensa después.

Reposo

En condiciones de reposo respiramos entre unas catorce y dieciséis veces (ciclos completos de inspiración y espiración) por minuto; o sea, nuestra frecuencia respiratoria (fr) se encuentra entre 14 y 16 min-1. Un hombre inspira en cada ocasión (VC: volumen corriente) alrededor de 0,5-0,6 l y una mujer 0,4-0,5 l; en otras palabras, en cada una de esas inspiraciones introducimos alrededor de medio litro de aire nuevo en los pulmones. Por lo tanto, el volumen de medio respiratorio inspirado y espirado por unidad de tiempo (V: tasa ventilatoria) es de unos 7,5 l min-1.

No obstante, a los 300 millones de alveolos (similares a microburbujas de 0,3 mm de diámetro y cuya superficie total equivale a 100 m2) no llegan los 7,5 l-1, sino 5,4 l min-1, ya que la diferencia corresponde al volumen inspirado que llena los conductos (bronquios y bronquiolos) que no participan en el intercambio respiratorio y son, por lo tanto, espacio muerto.

Por otro lado, en caso de necesidad, pueden introducirse mayores volúmenes de aire en los pulmones (VIR: volumen inspiratorio de reserva): hasta tres litros (VIR = 3 l) los hombres y dos litros (VIR = 2 l) las mujeres. También pueden expulsarse mayores volúmenes en la espiración. Ese volumen adicional que puede ser exhalado (VER: volumen espiratorio de reserva) es de 1,2 l, en los hombres, y 0,8 l, en las mujeres, aproximadamente. Pero hay un volumen residual (VR) que no es posible desalojar: 1,2 l y 1 l en hombres y mujeres, respectivamente. La capacidad pulmonar total (CPT) masculina es de 6 l y la femenina de 4,2, aproximadamente.

El aire inspirado tiene una presión parcial de oxígeno (pO2) de 158,8 mmHg pero la del oxígeno de los alveolos se encuentra entre 100 mmHg y 105 mmHg.

En condiciones de reposo a la sangre pasan 0,3 l min-1 en los hombres. Esa es su tasa de consumo de oxígeno (VO2 = 0,3 l min-1) en reposo.

En esas condiciones, el corazón late setenta veces por minuto (frecuencia cardiaca: fh= 70 min-1) y el volumen impulsado en cada latido (volumen sistólico: VS) es de 71 ml. El gasto cardiaco –volumen de sangre impulsado por el corazón por unidad de tiempo- es de 5 l min-1. Como tienen alrededor de 5 l de sangre, necesitan alrededor de un minuto para hacer pasar toda su sangre por el corazón. Esas cifras corresponden a hombres sin entrenar; si se trata de atletas de resistencia, VS rondaría los 100 ml y fh sería de unos 50 min-1, aunque puede ser incluso inferior.

La tensión parcial de oxígeno en la sangre arterial (tO2A) es de unos 95 mmHg, y la de la que llega procedente de los tejidos (tO2V), de unos 40 mmHg, y la diferencia entre las concentraciones arterial y venosa de oxígeno (CA –CV) es de 0,06 l O2 por litro de sangre.

Actividad intensa

Durante la realización de ejercicio físico intenso la frecuencia respiratoria puede pasar de 16 min-1 a 40-60 min-1, dependiendo del individuo y de la intensidad del esfuerzo.

El volumen inspiratorio puede llegar a valores máximos de 2 l (en reposo era de 0,5 l), y la tasa ventilatoria pasa de los 7,5 l min-1 del estado de reposo a valores de entre 90 y 120 l min-1 en condiciones de intensa actividad. En esas condiciones el consumo de oxígeno (VO2)puede llegar a 3 o 4 l min-1 en hombres jóvenes no entrenados, y a 5 l min-1 en jóvenes con entrenamiento de resistencia.

La presión parcial de oxígeno en condiciones de actividad intensa puede aumentar hasta pO2 = 115 mmHg dependiendo del nivel de actividad y, por lo tanto, de demanda metabólica; cuanto mayor es la demanda más alta es la presión parcial alveolar porque, como hemos visto, la frecuencia respiratoria y tasa ventilatoria aumentan, elevándose de esa forma la renovación de aire y, en consecuencia, su presión parcial de oxígeno.

Para poderlo sostener, el corazón puede bombear hasta 20 l min-1 (en hombres jóvenes no entrenados) y para ello, ha de latir a frecuencias cardiacas que pueden alcanzar los 190 latidos por minuto (min-1), y el volumen sistólico pasar a unos 105 ml. Los hombres con entrenamiento de resistencia pueden alcanzar valores de gasto cardiaco de 35 l min-1, con frecuencias cardiacas (fh) similares o algo inferiores a las de los hombres no entrenados, pero volúmenes sistólicos (VS) de cerca de 180 ml.

Conforme aumenta la demanda de oxígeno por parte de la musculatura esquelética, la diferencia entre las concentraciones de oxígeno de la sangre arterial y la sangre venosa (CA –CV) aumenta de los 0.06 l por litro de sangre de las condiciones de reposo a máximos de 0,14 l O2 por litro de sangre para consumos de oxígeno de 5 l min-1.

Bajo condiciones de reposo los músculos reciben muy poca sangre, pero en condiciones de trabajo máximo, 1 kg de músculo esquelético puede llegar a recibir 2,5 l min-1. Dado que esa cifra representa más de un 10% del gasto cardiaco, no es posible mantener más de 10 kg de músculo (la tercera parte de toda la musculatura) trabajando a máximo nivel, puesto que hay que seguir irrigando e encéfalo y el corazón, en primer lugar, y otros órganos y tejidos aunque estos recibiendo muy poca sangre. Aquí puedes encontrar una descripción detallada de cómo se reorganiza el flujo sanguíneo al pasar de reposo a la actividad intensa.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Respuesta de los sistemas respiratorio y cardiovascular al ejercicio físico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El flujo sanguíneo se reorganiza en respuesta a las necesidades
  2. La curva de disociación de un pigmento respiratorio
  3. Regulación de la circulación (1): control del sistema cardiovascular
Kategoriak: Zientzia

Generalización de la invariancia: principios de covariancia y equivalencia

Ar, 2018-03-20 11:59

En la nave “Avalon”, que aparece en la película “Passengers”, la aceleración que produce el giro alrededor del eje central de la nave proporciona un efecto idéntico al de la gravedad para los pasajeros; ese es el principio de equivalencia. A pesar de ello, las leyes de la física siquen siendo las mismas dentro de la nave; ese es el principio de covariancia.

Entre 1907 y 1916 Einstein empleó buena parte de su tiempo y esfuerzos en la generalización de la teoría de la invariancia a marcos de referencia no inerciales [1]. Si bien el resultado de estos trabajos, la que después se conocería como teoría general de la relatividad, es sustancialmente más compleja que la teoría especial, en lo que sigue emplearemos lo que ya hemos aprendido de la teoría especial para comprender algunos aspectos importantes de la teoría general y después explorar algunas de sus implicaciones.

Sabemos que la teoría especial se basa en dos principios básicos, el principio de relatividad y la constancia de la velocidad de la luz. De forma similar, la teoría general también se basa en dos principios: el principio de covariancia [2] y el principio de equivalencia. Vamos a ver que los dos son muy fáciles de plantear y entender, otra cosa mucho más complicada es expresar sus consecuencias matemáticamente, algo en lo que no entraremos.

El principio de covariancia se puede resumir diciendo que las leyes de la física son las mismas en todos los marcos de referencia. Una afirmación que nos retrotrae al principio de relatividad de la teoría especial:

Todas las leyes de la física son exactamente las mismas para cada observador en cada marco de referencia que está en reposo o moviéndose con una velocidad relativa uniforme. Esto significa que no hay ningún experimento que se pueda realizar dentro de un marco de referencia que revele si éste está en reposo o moviéndose a una velocidad uniforme.

El principio de covariancia es pues una generalización del principio de relatividad [3]: mientras que éste se limita a los marcos de referencia inerciales, el principio de covariancia dice que las leyes de la física son las mismas en cualquier marco de referencia, independientemente de cómo se esté moviendo respecto a otro. Es en este sentido cómo las teorías de la relatividad se distinguen en especial y general: mientras que la teoría especial se aplica cuando se dan ciertas circunstancias especiales (siempre que estemos tratando con marcos de referencia inerciales), la teoría general carece de esta restricción.

El otro principio básico de la teoría general es el principio de equivalencia que viene a decir que los efectos debidos a la aceleración y los debidos a la gravedad son indistinguibles. Puede parecer una afirmación huera, porque ya sabíamos que la gravedad provoca una aceleración en física newtoniana y la relación ya la conocía el propio Newton.

¿Qué novedad introduce Einstein entonces? En la física de Newton aceleración y gravedad son tratadas como dos fenómenos separados y la relación entre ellas como una coincidencia. Pero el principio de equivalencia afirma que esencialmente no existe diferencia entre ambos efectos: no podemos distinguir entre ellos.

Esta equivalencia esencial entre aceleración y gravedad se suele ilustrar con el experimento mental del ascensor. Imagina que estás en una caja de ascensor sin ventanas, y que la caja está depositada en la superficie de la Tierra estática, pero tú no lo sabes. Comienzas a hacer experimentos físicos para ver qué puedes averiguar de tu situación. ¿Qué mides? Pues mides que los objetos que dejas libres a la altura de tu hombro se mueven con movimiento uniformemente acelerado hacia el suelo (sabes que es el suelo porque hay una fuerza que te empuja hacia esa superficie y, por eso, la llamas suelo) con una aceleración constante de 9,8 m/s.

Ahora supongamos que, de nuevo sin que tú sepas nada, la caja de ascensor se mueve por el espacio interestelar (y, por tanto, no le influye significativamente ningún campo gravitatorio) con una aceleración uniforme de 9,8 m/s en la dirección perpendicular a lo que tú antes llamabas suelo y sentido “del suelo al techo”. De nuevo, tus experimentos te llevarían en estas circunstancias exactamente a los mismos resultados. Es decir, los efectos prácticos de aceleración y gravedad son idénticos y no puedes distinguir una situación de otra.

Notas:

[1] Los marcos de referencia que están en reposo o se mueven con velocidad uniforme en relación con otro marco de referencia son llamados marcos de referencia inerciales, ya que la ley de inercia de Newton se cumple en ellos. Los marcos de referencia que se aceleran respecto a otros se denominan marcos de referencia no inerciales.

[2] Recibe varios nombres según el texto que consultemos: principio de covariancia, de covariancia general o general de la relatividad. Nosotros preferimos el nombre más eficiente.

[3] Einstein se refería a él como principio general de la relatividad.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Generalización de la invariancia: principios de covariancia y equivalencia se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El principio de relatividad (3): la invariancia de Galileo
  2. El principio de relatividad (y 4): la versión de Einstein
  3. ¿La teoría de la invariancia es física o metafísica?
Kategoriak: Zientzia

Ingredientes para la receta: El garbanzo

Al, 2018-03-19 17:00

-Lo que real y verdaderamente tengo son dos uñas de vaca que parecen manos de ternera, o dos manos de ternera que parecen uñas de vaca; están cocidas con sus garbanzos, cebollas y tocino, y la hora de ahora están diciendo: “¡Cómeme! ¡Cómeme!”

-Por mías las marco desde aquí –dijo Sancho-, y nadie las toque, que yo las pagaré mejor que otro, porque para mí ninguna otra cosa pudiera esperar de más gusto, y no se me daría nada que fuesen manos, como fuesen uñas.”

Miguel de Cervantes, Don Quijote de La Mancha, 1605.

Oda al garbanzo

Si a pensar en los males de Castilla

y en su miseria y desnudez me lanzo,

como origen fatal de esta mancilla,

te saludo, ¡Oh garbanzo!

Tú en Burgos, y en Sigüenza, y en Zamora,

y en Guadalajara, capital del hielo,

alimentas la raza comedora,

y así le crece el pelo.

Esa tu masa insípida y caliza,

que de aroma privó naturaleza,

y de jugo y sabor, ¿qué simboliza?

vanidad y pobreza.

En El Practicón, de Ángel Muro, “de un eminente poeta” anónimo, 1894.

Siempre podemos empezar a tratar del garbanzo con una buena receta, esa de las manos de vaca de El Quijote que, como solo él sabe hacer, degustará con entusiasmo Sancho, que para eso se apellida Panza.

Limpiamos, raspamos, cortamos las manos de vaca y las maceramos en vinagre con zumo de limón. Las sacamos, lavamos y al puchero a cocer con cebolla, unos pimientos choriceros, laurel, perejil, pimienta, azafrán, garbanzos que han estado a remojo la noche anterior, y vinagre. Cocer hasta que todo esté tierno y, si se necesita, añadir agua caliente. Y a la mesa.

El garbanzo, de nombre científico Cicer arietinum y perteneciente a la familia Fabaceae, es una planta que crece en climas cálidos, con pluviometría superior a 400 milímetros, aunque tiene problemas de cultivo con exceso de agua. Es una herbácea anual, de unos 50 centímetros de altura, con tres o cuatro granos como máximo en cada pie. Tiene muchas variedades pero destacan dos como origen de otras: el tipo Kabuli, de grano medio o grande, liso, redondeado, de color crema y que se cultiva en el Mediterráneo y Asia occidental, y procedente de Kabul, en Afganistán, llegó a la India en el siglo XVIII; y el tipo Desi, rugoso, más pequeño y de color marrón oscuro, y se siembra entre Irán y la India. El tipo Desi tiene más variabilidad genética que el Kabuli y, por ello, los expertos suponen que este deriva de aquel y que su aparición es relativamente reciente. Además, el Desi se parece más al Cicer reticulatum, el antecesor silvestre del garbanzo domesticado. Sin embargo, algunos de los estudios genéticos parecen indicar que el tipo Kabuli también deriva directamente del Cicer reticulatum, tal como sugiere Deepak Ohri, de la Universidad de Uttar Pradesh, en la India.

Por otra parte, como ocurre en muchas especies domesticadas, el garbanzo doméstico tiene poca variabilidad genética, tal como dijo Vavilov. En varios momentos del proceso de domesticación, ha pasado por cuellos de botella que han reducido su población y su variabilidad. Solo algunas variedades han superado estos cuellos de botella y han llegado a nuestros campos.

Garbanzo kabuli (izquierda) y desi (derecha)

Según Shahal Abbo, han sido cuatro estos cuellos de botella. En primer lugar, partimos de una especie antecesora, Cicer reticulatum, con una distribución geográfica restringida y, por tanto, y, en segundo lugar, con escasa variabilidad genética. En tercer lugar, el garbanzo pasó por un proceso selectivo muy fuerte para convertirse en cultivo de verano. Y, finalmente, se eliminaron muchas variedades locales cuando se seleccionaron, por su eficacia en el cultivo, los dos grandes tipos, Desi y Kabuli.

En España y por hibridación y selección se han obtenido muchas variedades: Fardón, Puchero, Alcazaba, Bujeo, Pedrosillano, Lechoso, Blanco Andaluz, el de Fuentesaúco, el de Pico Pardal, y otras más. Escriben José del Moral y su grupo, del Servicio de Investigación y Desarrollo Tecnológico de la Junta de Extremadura, que, en España, la superficie dedicada al cultivo del garbanzo ha pasado por grandes variaciones en el último siglo. Entre 1919 y 1936, de media eran unas 2400000 hectáreas al año, para subir hasta casi 4000000 de hectáreas durante la Guerra Civil y los diez años siguientes. Desde 1950, la superficie disminuye hasta las 44000 hectáreas en 1993, con un aumento hasta casi 150000 hectáreas en 1996 cuando se empieza aplicar la Política Agraria Común de la Unión Europea. En 2015, la disminución de la superficie dedicada al garbanzo es notable y quedan 38000 hectáreas. Sin embargo, la productividad llega a las dos toneladas de garbanzos por hectárea.

Se ha secuenciado el genoma de 90 genotipos de garbanzo, con más de 28000 genes y ha servido para encontrar hasta 77 variantes que mejoran diversos aspectos de su cultivo.

Es la segunda o tercera especie de legumbre más cultivada, según los años, y se siembra desde la cuenca mediterránea, al oeste, y Etiopía, al sur, hasta la India, en el este. Es la India el primer productor mundial y allí, de media y entre 2000 y 2004, se recogió el 63% de la cosecha. Le siguen Turquía, con el 8%, Pakistán, con el 7%, e Irán, con el 4%. También son zonas de cultivo de garbanzo Australia, el Mediterráneo, Asia occidental, y en las Grandes Llanuras de Estados Unidos. En el año 2013, la cosecha mundial de garbanzos fue de algo más de 13 millones de toneladas, con casi 9 millones recogidas en la India.

Además, la India es también el mayor importador, con 133000 toneladas en 2004. En cuarto lugar está España con 58000 toneladas en 2004. Sin embargo, solo entre el 5% y el 10% de la producción mundial entra en el comercio internacional. El garbanzo es un cultivo muy consumido por las comunidades que lo cultivan. El mayor exportador es Australia, con 150000 toneladas en 2004, seguido de Turquía, con 133000 toneladas, e Irán, con 85000 toneladas.

Presentación de hummus con aceite de oliva

Es un alimento habitual desde Oriente Próximo hasta la India y el ingrediente básico del hummus, del falafel y es habitual en el cuscús. El garbanzo se come asado, cocido, frito y molido para obtener harina.

Destaca, entre otros cultivos domésticos del Oriente Próximo, por ser de verano y no de invierno. Es resistente a la sequía y con pocas necesidades de agua. Shahal Abbo, de la Universidad Hebrea de Jerusalén, indica que le basta con el agua del rocío.

Lo habitual en esas plantas domesticadas del Creciente Fértil es que germinen en otoño, florezcan al final del invierno y principio de la primavera, y maduren al comienzo del verano. Es lo típico en los ancestros del trigo, la cebada, la lenteja, el guisante e, incluso, del garbanzo silvestre, el Cicer reticulatum. En la actualidad, todos mantienen este ciclo excepto el garbanzo. Es una planta que se siembra en primavera y se recoge en verano. Fueron griegos y romanos quienes nos dan las evidencias más antiguas del garbanzo como planta que se siembra en marzo y abril.

Planta en flor

En Oriente Próximo, en el Crecente Fértil, más del 80% de la lluvia anual cae entre diciembre y enero, y el largo verano es cálido y seco. El cultivo que necesite agua en verano solo tiene la que queda en el suelo. Es este ciclo anual de lluvias el que ha seleccionado las plantas a sembrar en otoño y recoger al inicio del verano. Abbo plantea la incógnita que supone cambiar del garbanzo silvestre de invierno y de éxito por el cultivo más arriesgado del garbanzo de verano, doméstico y actual. Durante milenios ha sido, en el entorno de Asia, Oriente y el Mediterráneo uno de los escasos cultivos de verano. Además, con este paso de invierno a verano se evita el daño que produce un hongo, Didymella rabiei, que provoca la llamada rabia del garbanzo. El hongo necesita humedad y en el cálido y seco verano no la tiene.

El garbanzo silvestre, antecesor del cultivado, solo se localiza en el sudeste de Turquía y, en concreto, en solo 18 localidades. Es la especie Cicer reticulatum. Además, el garbanzo es la única especie cultivada del género Cicer.

Con fecha de hace 13000 a 11000 años, el garbanzo se encuentra en yacimientos del Oriente Próximo, en Tell Abu Hureyra, en el norte de la Siria actual. De hace 10500 años ha aparecido en Cayonii, en el sudeste de Turquía, en Jericó, en Israel, y en Tell Ramad, en el sur de Siria, yacimientos situados lejos del área de distribución del garbanzo silvestre y, por ello, quizá cultivados aunque todavía sin seleccionar el garbanzo actual. Se considera que fue domesticado hace entre 7000 y 10000 años en Asia occidental.

Distribución del garbanzo según Maesen et al (2007): “Taxonomy of the genus Cicer revisited”.

Para Deepak Ohri, la fecha más temprana a la que conocemos con certeza la existencia del garbanzo doméstico es de 10600 a 12250 años en el yacimiento de Tell el-Kerkh, en el noroeste de Siria, donde se encuentra a la vez y se distinguen claramente granos de garbanzo silvestre y de garbanzo domesticado. En esta excavación, Ken-Ichi Tanno y George Willcox, del centro Archeorient del CNRS en Minneapolis, en Francia, recogieron un centenar de granos de garbanzo con una morfología variable y que iba del reticulatum al arietinum, es decir, del silvestre al domesticado. Como este yacimiento está lejos del área de distribución original del garbanzo silvestre, los autores consideran que la domesticación ocurrió mucho tiempo antes de esta fecha de hace 10000 años.

Hace 7500 años aparece en yacimientos en Jericó, en Israel, y en Cayonii y Hacilar, en Turquía. Por su presencia en los yacimientos, hace 6000 años eran alimento habitual en Palestina. Y de hace casi 7000 años aparece en la cueva L’Abenrador, en Francia.

Son los garbanzos de consumo habitual en la Palestina de hace 6000 años, según los restos encontrados en los yacimientos. En la India, los restos más antiguos son de hace 5000 años.

También hace unos 5000 años, en la Edad del Bronce de Grecia, se han encontrado garbanzos en yacimientos del la isla de Creta. En estos años ya se encuentra el garbanzo en la cuenca mediterránea y Oriente Próximo y, en la misma época, ha alcanzado la cultura Harapa, entre los actuales estados de la India y Pakistán. En la Edad del Hierro, con fechas entre 3300 y 2500 años, aparece por primera vez en Etiopía, uno de los mayores cultivadores y consumidores actuales.

Hay un curioso e inexplicable lapso de hallazgos de garbanzo doméstico hace entre 8000 y 11000 años. Algunos autores han propuesto que se debe a que entonces se estaban seleccionando las variedades para el actual cultivo de verano del garbanzo.

También se han encontrado garbanzos nada menos que en la tumba de Tutankamon, faraón que reinó en Egipto hace algo más de 3000 años. Y, también hace casi 3000 años, Homero citaba los garbanzos en La Iliada, ponderando, si lo entiendo bien, su extraordinaria dureza.

Comían garbanzos con gusto los romanos y los cita Petronio en banquetes fastuosos, y hay varias recetas con garbanzos, por cierto, condimentados con cebada y con la famosa salsa romana, el garum, en el Re coquinaria de Marco Gavio Apicio, libro fechado en el siglo I, en la Roma imperial. Sin embargo, eran considerados alimento de pobres, del pueblo.

En aquellos años de la Roma imperial, los garbanzos se vendían por las calles para comer o para picar, tanto cocidos como fritos. Pero maestros y sacerdotes prohibían el consumo de garbanzos a sus discípulos pues, según se creía en aquellos tiempos, inhibían el pensamiento claro y preciso y los elevados principios espirituales que se les exigían. Pitágoras, por ejemplo, no solo prohibía a sus seguidores comer garbanzos sino, también, pasear por un campo sembrado de legumbres. Sin embargo, Dioscórides, Apicio y Plinio recomendaban los garbanzos como alimento saludable.

Según la revisión de Ramón Buxó, aparece en pocos yacimientos arqueológicos en la Península Ibérica, y no se conoce con exactitud cómo y cuándo llegó el garbanzo, quizá con los fenicios y, con certeza, con los romanos. De la época ibérica se ha encontrado en Los Castillejos, en Granada, con un solo ejemplar, y en el Castillo de Doña Blanca, en Cádiz, con nueve ejemplares, todos ellos fechados hace entre 2600 y 2700 años. También se han encontrado garbanzos en varios yacimientos en el sur de Francia de hace entre 2400 y 2500 años. Según los datos de Buxó, el garbanzo aparece en nuestra área geográfica hace de 2400 a 2900 años.

Tito Livio cuenta que los soldados cartagineses de Asdrúbal ya sembraban garbanzos en Cartago Nova, la actual Cartagena, hace unos 2400 años. Y, por supuesto, también los romanos y, como ejemplo, está el único grano de garbanzo que se ha recuperado en las excavaciones de la aldea de Obulco, en Porcuna, provincia de Jaén. Fue Columela, hace unos 2100 años, quien escribió del garbanzo como un cultivo habitual en Iberia.

El Cocinero Mayor de Felipe II y de varios de sus descendientes Austrias, Francisco Martínez Montiño, publicó en 1611 su “Arte de Cocina” e incluye varias recetas con garbanzos. Y no resisto el transcribir una de ellas que, creo, está completamente olvidada y que propongo a los que experimentan en la cocina: son los Garbanzos dulces con membrillo.

Echarás los garbanzos a cocer, quando estén cocidos, tomarás membrillos, tanta cantidad como los garbanzos; móndalos, quítales las pepitas, y córtalos por medio; luego del medio cortarás rebanadillas delgadas a lo largo, y a lo ancho del membrillo; luego tomarás manteca de vacas fresca, freirás cebolla y los membrillos hasta que estén bien blandos; luego échalos con los garbanzos, sazona con todas especias, canela, y un poco de vinagre, échales dulces de azúcar, que estén bien dulces, y tengan poco caldo; luego harás unos tallarines muy delgados, fríelos, echarás en el plato un lecho de tallarines (aunque se pueden servir sin ellos) y otro de garbanzos, azúcar y canela, y de esta manera hincharás el plato. Y advierte, que este plato ha de servirse bien dulce y bien agrio; y si no hubiere manteca, hágase con un buen aceyte; si no hubiese membrillos, hágase con peros agrios”.

Fue el famoso cocinero y escritor Ángel Muro el que escribió que “yo concedo que con el garbanzo –Sólo el garbanzo- se puede alimentar un hombre, pero a este hombre no hay que pedirle que trabaje material o intelectualmente lo que trabajaría otro hombre que comiera carne”. Pero ya Carlomagno, hace 1200 años, afirmó la utilidad del garbanzo como alimento para el pueblo pues era barato, nutritivo y sencillo de cultivar. El emperador emitió un decreto que obligaba a los campesinos de su imperio a sembrar garbanzos. También tienen propiedades medicinales, son ricos en azúcares y proteínas, vitamina B y hierro, fósforo, zinc y magnesio. Es una fuente barata de proteína y puede cubrir hasta el 20% de la proteína de la dieta.

Para terminar, una receta de garbanzos para el pueblo más pobre, como escribe su recopilador, el Doctor Alfredo Juderías, en su libro “Cocina para pobres”. Además, nos permite aprovechar las sobras, lo que siempre viene bien, antes por falta de recursos y ahora por eso del consumo sostenible. Son los garbanzos “endomingaos”:

Se aliñan los garbanzos sobrantes del cocido, bien secos, con aceite de oliva, ajos cortados en rodajas, perejil muy picado y vinagre y ya está. Al servir se espolvorean con huevos duros picados.

Referencias:

Abbo, S. et al. 2003. The chickpea, summer cropping, and a new model for pulse domestication in the Ancient Near East. Quarterly Review of Biology 78: 435-448.

Abbo, S. et al. 2003. Evolution of cultivated chickpea: four bottlenecks limit diversity and constrain adaptation. Functional Plant Biology 30: 1081-1087.

Abbo, S. et al. 2009. Reconsidering domestication of legumes versus cereals in the Ancient Near East. Quarterly Review of Biology 84: 29-50.

Brothwell, D. & P. Brothwell. 1969. Food in Antiquity. A survey of the diet of early peoples. Johns Hopkins University Press. Baltimore and London. 283 pp.

Buxó, R. 1997. Arqueología de las plantas. Crítica. Barcelona. 367 pp.

del Moral de la Vega, J. et al. 1996. El cultivo del garbanzo. Diseño para una agricultura sostenible. Hojas Divulgadoras 12/94 D. Ministerio de Agricultura, Pesca y Alimentación. Madrid. 24 pp.

Diamond, J. 1998. Armas, gérmenes y acero. La sociedad humana y sus destinos. Ed. Debate. Madrid. 527 pp.

Dusunceli, F. et al. 2007. International trade. En “Chickpea Breeding and Management”, p. 555-575. Ed. por S.S. Yadav. CAB International. Wallingford, UK.

Juderías, Al. 1994. Cocina para pobres. 11ª ed. Ed. SETECO. Madrid. 325 pp.

Khoury, C.K. et al. 2016. Origins of food crops connect countries worldwide. Proceedings of the Royal Society B doi: 10.1098/rspb.2016.0792

Muro, A. 1982 (1894). El Practicón. Tusquets Eds. Barcelona. 774 pp.

Ohry, D. 2016. Genetic resources of chickpea (Cicer arietinum L.) and their utilization. En “Gene Pool Diversity and Crop Improvements”, p. 77-106. Ed. por V.R. Raipal et al. Springer International Publ. Switzerland.

Redden, R.J. & J.D. Berger. 2007. History and origin of chickpea. En “Chickpea Breeding and Management”, p. 1-13. Ed. por S.S. Yadav. CAB International. Wallingford, UK.

Tanno, K. & G. Willcox. 2006. The origins of cultivation of Cicer arietinum L. and Vicia faba L.: early finds from Tell el-Kerkh, north-west Syria, late 10th millenium b.p. Vegetation History and Archaeobotany 15: 197-204.

van der Maesen, L.J.G. 1987. Origin, history and taxonomy of chickpea. En “The Chickpea”, p. 11-34. Ed. por M.C. Saxena & K.B. Singh. CAB International. Wallingford, UK.

Voropaeva, I & H.-P. Stika. 2016. Plant remains from Roman period town of Obulco (today Porcuna) in Andalusia (Spain) – distribution and domestication of olive in the west Mediterranean region. Archaeological and Anthropological Sciences DOI: 10.1007/s12520-016-0405-1.

Weiss, E. & D. Zohary. 2011. The Neolithic Southwest Asia founder crops. Current Anthropology 52, Suppl. 4: S237-S254.

Wikipedia. 2017. Cicer arietinum. 20 septiembre.

Wikipedia. 2017. Chickpea. 15 November.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Ingredientes para la receta: El garbanzo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Ingredientes para la receta: el ajo
  2. Ingredientes para la receta: El arroz
  3. Ingredientes para la receta: El kiwi
Kategoriak: Zientzia

¿Qué factores han impulsado la evolución cognitiva en el linaje humano?

Al, 2018-03-19 11:59

Como vimos en una anotación anterior, se han barajado diferentes hipótesis para dar cuenta de las presiones selectivas que dieron lugar al gran encéfalo que caracteriza a la especie humana. Se asume que ese tamaño permitió el desarrollo de capacidades cognitivas idóneas para hacer frente a aquellas presiones. Un trabajo más reciente, realizado por Suzanne Shultz, Emma Nelson y Robin I. Dunbar ha barajado y valorado varias posibilidades: (1) que gracias a esas habilidades cognitivas los homininos pudieran desenvolverse bajo condiciones climáticas variables e impredecibles, con fuentes de alimento cambiantes e igualmente difíciles de prever; (2) que les permitieran afrontar con éxito la amenaza de diversos y poderosos depredadores al aventurarse por espacios y ecosistemas nuevos; (3) que posibilitasen la vida en grandes grupos de individuos y que favoreciesen la cooperación en el seno de dichos grupos (dentro de esta categoría se consideran de importancia crucial las capacidades para valorar los intereses de los otros miembros del grupo); (4) que dieran lugar al desarrollo del lenguaje, con todas las posibilidades que tal adquisición conllevó.

El grupo de Dunbar estudió un amplio conjunto de cráneos correspondientes a un periodo que va de hace 3.2 millones a hace 10000 años, y analizó su posible relación con los factores que pudieron propiciar sus cambios de tamaño. En el análisis optó por dos procedimientos en paralelo. Por un lado estudió el curso temporal de variación en las dimensiones craneales para todo el conjunto de homininos estudiados. Y por otro lado analizó el cambio en el seno de cuatro grandes categorías taxonómicas: Australopithecus sp., Homo habilis, Homo erectus (incluido H. ergaster) y H. sapiens (incluidos H. heidelbergensis y H. neanderthalensis).

Los resultados indican que el crecimiento del cráneo de los homininos a lo largo de tres millones largos de años no ha sido gradual, sino que se han producido saltos en determinados momentos: los dos primeros saltos coinciden con la aparición de los primeros H. habilis (hace unos dos millones de años) y de H. erectus (hace unos 1.8 millones de años). El tercero ocurrió entre 1.0 y 1.2 millones de años, sin aparente relación con la aparición de ninguna especie. Y los dos últimos han ocurrido, el primero de ellos, hace entre cuatrocientos y doscientos mil años, en el entorno de la aparición de los seres humanos anatómicamente modernos, y hace unos cien mil años el segundo, sin coincidir este tampoco con la aparición de ninguna especie en concreto. Aparte de esos saltos, en algunas de las categorías también se observaron aumentos graduales en el tamaño encefálico a lo largo del tiempo.

Esta investigación no permitió atribuir a un único factor la encefalización observada durante la evolución de los homininos. Los factores climáticos y ambientales ejercieron, muy probablemente, cierta influencia, ya fuese de forma directa o indirecta, al obligarles a modificar su comportamiento, de manera que ocuparon hábitats más periféricos y peligrosos, vivieron en grupos de mayor tamaño o utilizaron nuevos recursos.

Dado que los factores relacionados con el clima no pueden por sí solos dar cuenta de la variación observada en el tamaño encefálico a lo largo del tiempo, han de ser considerados otros posibles efectos, y muy en especial los ejercidos por factores de carácter social y lingüístico. Aunque no se dispone de medidas directas de la estructura de los grupos sociales o de su complejidad, es conocida la gran importancia que la inteligencia social tiene para la condición humana. Las conclusiones a que han llegado los estudios acerca de la evolución del lenguaje, morfología encefálica y la aparición del comportamiento simbólico sugieren que la evolución del lenguaje es una componente clave de la evolución cognitiva humana y que los avances culturales han podido ocurrir en una serie de pasos que habrían tenido su reflejo en cambios en el tamaño y arquitectura del encéfalo. En ese sentido, los autores del trabajo sugieren que el último salto en el tamaño encefálico, el producido a partir de hace unos cien mil años, puede estar asociado a la adquisición del lenguaje complejo, o sea, en la transición de un habla basada en la capacidad para emitir sonidos vocálicos articulados a la producción de proposiciones plenamente gramaticales.

Fuente:

Suzanne Shultz, Emma Nelson & Robin I Dunbar (2012): Hominin cognitive evolution: identifying patterns and processes in the fossil and archaeological record. Phil Trans R Soc B 367: 2130-2140; doi:10.1098/rstb.2012.0115

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo ¿Qué factores han impulsado la evolución cognitiva en el linaje humano? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El gran encéfalo humano es un “encéfalo social”
  2. Gradualismo o saltacionismo… en evolución lingüística
  3. Evolución del tamaño animal
Kategoriak: Zientzia

‘Entre selfies y whatsapps’: Internet, infancia y adolescencia en Europa y Latinoamérica

Ig, 2018-03-18 11:59

Oficina de comunicación de la UPV/EHU

Cada día más niños y niñas utilizan los medios digitales para descargar música, ver vídeos, hacer los deberes, participar en redes sociales y comunicarse. Esta realidad conlleva un mundo de oportunidades que no está exento de problemas y situaciones peligrosas derivadas del mal uso de la red. En este contexto, sus coordinadores destacan que “más allá de tópicos y alarmismo, es necesario formar en la prevención de riesgos y alentar a niños y niñas a que asuman su papel como internautas exigentes y conscientes con autonomía y seguridad”.

El libro es el resultado de la colaboración entre autores de más de una veintena de universidades europeas y latinoamericanas que abordan diferentes cuestiones relacionadas con la vida online de los y las menores. Cada capítulo se centra en un aspecto concreto: el ciberbullying, el sexting, el contacto con desconocidos, el uso excesivo, la perspectiva de género, la gestión del desembarco de internet en la escuela o la labor de mediación de las familias, entre otros. Según afirmó en la presentación Maialen Garmendia, “la clave para mejorar la seguridad en internet está en la educación, entendida en un sentido amplio: desde las familias y la escuela hasta las actividades extraescolares”.

Con la participación de la doctora Honoris Causa de la UPV/EHU e investigadora principal de la red europea EU Kids Online Sonia Livingstone, el libro permite conocer realidades de diferentes países, incluidos varios latinoamericanos. En este sentido, Carmelo Garitaonandia, catedrático de Periodismo de la UPV/EHU y coautor de uno de los capítulos, remarcaba en la presentación la importancia de prestar atención a la vida online de la infancia y adolescencia desde un punto global: “Aunque no es fácil conseguir datos fiables y seriados de todos los países de América Latina, sí es claramente constatable las diferencias de conexión entre los hogares de alto y bajo estatus socioeconómico, así como entre zonas urbanas y rurales, en países que han combinado un acelerado desarrollo económico con la emergencia de profundas desigualdades. En Brasil, por ejemplo, la población de mayores ingresos está conectada casi al 100%, mientras que la de menos ingresos no llega ni a una cuarta parte. Y en Colombia las diferencias de conexión entre hogares urbanos y rurales es de 6 a 1”.

En España y los niños y niñas disponen de su primer móvil a los 8 años. Hace seis años se accedía por primera vez a Internet a los 10 y se tenía móvil por primera vez a los 11. Aunque la presencia de niños y niñas en internet y el uso de teléfonos, tabletas y ordenadores son hábitos cada vez más tempranos, la exposición a los riesgos no ha aumentado en la misma medida. Sin embargo, la incidencia del bullying entre usuarios de 9 a 16 años se ha doblado en menos de una década: en 2010 un 15% declaraba haberlo sufrido en cualquiera de sus variedades, incluido el ciberbullying, y según los hallazgos de investigación recogidos en el libro, este dato se eleva al 31%. Así mismo, el porcentaje de menores que ha recibido mensajes sexuales ha aumentado extraordinariamente en los últimos años: casi uno de cada tres de los menores responden afirmativamente a esa pregunta.

Entre los riesgos detectados para la infancia y la adolescencia aparecen los mensajes sexuales, y el ciberbullying. En este último caso, la implicación del profesorado y la intervención del alumnado son parte esencial para detectar y combatir el ciberacoso. Los programas Ciberprogram 2.0 o Asegúrate son estrategias útiles para revenirlo, junto con los protocolos habituales utilizados en casos de bullying tradicional (el bullying cara a cara), que sigue siendo más frecuente que el online. En cuanto a los mensajes sexuales, la mayoría de jóvenes españoles entre 11 y 16 años (94,5%) opina que el sexting es una práctica peligrosa, el 44,7% admite que es parte del juego erótico y/o sexual y sólo uno de cada cuatro (19,5% de mujeres y 31’4% de hombres) considera que mejora las relaciones de pareja.

Aunque la Organización Mundial de la Salud no reconoce la adicción a internet a nivel clínico, sí existen jóvenes que presentan los síntomas habituales de las adicciones, que están enganchados. De todas maneras, tampoco hay que confundir el uso frecuente o abusivo de las redes con el uso problemático, el cual depende del grado de interferencia que internet pueda suponer en la vida diaria de cada persona.

Los riesgos existen, pero hay un aumento de la concienciación sobre ellos entre padres, madres y menores. Aunque la frecuencia de uso de internet y los dispositivos móviles ha aumentado y en consecuencia lo ha hecho el peligro, la proporción de quienes han sufrido daños tras afrontar riesgos en internet es menor. Así todo, es necesario dotar a los menores de recursos para que aprovechen al máximo las oportunidades que ofrece el entorno digital y minimicen esos riesgos.

El indiscutible acceso cada vez más temprano a internet es una oportunidad para que padres y madres supervisen o acompañen a sus hijos e hijas en el uso de móviles, tabletas e internet. Sin embargo, el apego por su teléfono y el deseo de privacidad dificultan la mediación de padres y madres, especialmente cuando sus progenitores respetan la privacidad y valoran la confianza de los niños y niñas.

En la educación digital la escuela debe jugar un papel activo. Invertir en infraestructura y en equipos es una oportunidad para aprovechar el potencial de las Tecnologías de la Información y la Comunicación (TIC), pero no será suficiente si, al mismo tiempo, el profesorado no juega un papel más activo y hay una revisión de los métodos pedagógicos convencionales. Esta responsabilidad en la educación de los menores también debe ser compartida por madres, padres y el conjunto de la sociedad.

Entre selfies y whatsapps aborda también la situación en Latinoamérica, donde se han detectado diferencias significativas en la capacidad para acceder a internet entre los y las jóvenes de diferentes países. En Uruguay y Chile las posibilidades de acceso son mayores, los hogares están mejor conectados y presentan el mejor ratio de estudiantes por ordenador. En cuanto a porcentaje de colegios conectados a internet también se ubican en los primeros puestos junto con Costa Rica. En todos los países son significativas las diferencias de conexión entre zonas urbanas y rurales, así como entre el estatus socioeconómico alto y bajo.

Ficha:

Autores: Estefanía Jiménez, Maialen Garmendia, Miguel Ángel Casado (coordinadores)

Título: Entre selfies y whatsapps. Oportunidades y riesgos para la infancia y la adolescencias conectadas

Año: 2018

Editorial: Gedisa

En Editoralia personas lectoras, autoras o editoras presentan libros que por su atractivo, novedad o impacto (personal o general) pueden ser de interés o utilidad para los lectores del Cuaderno de Cultura Científica.

El artículo ‘Entre selfies y whatsapps’: Internet, infancia y adolescencia en Europa y Latinoamérica se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La menor influencia de las mujeres en Internet
  2. Marcapasos con conexión a Internet
  3. Adolescencia, sexismo y publicidad
Kategoriak: Zientzia

Orriak