Un alelo para las gafas de color de rosa
Hay una variante alélica de la región promotora del gen del transportador de serotonina (5-HTTLPR) que está asociada con una diferencia a la hora de reparar en unas imágenes u otras, dependiendo de su contenido afectivo, positivo o negativo.
Vayamos por partes. La serotonina es un neurotransmisor, o sea, una molécula mensajera que interviene en las conexiones sinápticas entre neuronas en ciertas vías nerviosas. En otras palabras, es una molécula que una neurona (presináptica) vierte al espacio existente entre ella y la neurona contigua (hendidura sináptica), y se une a unos receptores que hay en la membrana de esta segunda neurona (postsináptica); una vez unida a su receptor, da lugar a los efectos correspondientes. Lo que aquí nos interesa es que el neurotransmisor no permanece permanentemente unido al receptor, sino que se libera del mismo y vuelve a quedar en la hendidura sináptica. Por otro lado, en la neurona presináptica (la que ha vertido el neurotransmisor a la hendidura sináptica) hay unas proteínas transportadoras, que lo recuperan y lo introducen de nuevo en la neurona; de esa forma se recicla y se puede volver a utilizar.
Pues bien, la variante alélica a que hacemos referencia aquí da lugar a que unos individuos tengan transportadores de serotonina diferentes de los que tienen otros. Los individuos homocigóticos para el alelo largo (LL) tienen una tendencia a fijarse y procesar material de contenido afectivo positivo, a la vez que evitan el negativo. Podría decirse, si se permite la metáfora cursi, que tienden a ver la vida de color de rosa. Ese rasgo está ausente en quienes poseen el alelo corto (SS o LS). Al parecer, los homocigóticos para L producen una proteína transportadora más activa que los otros individuos y como consecuencia de ello, reciclan más rápidamente la serotonina y la ponen antes a disposición de las neuronas presinápticas en los circuitos neuronales en los que participan. De esa forma esas neuronas presinápticas disponen de más serotonina. Y son quienes tienden a fijarse en las cosas buenas quienes poseen el alelo largo de la región promotora en cuestión. En definitiva, el sesgo que conduce a fijarse en un tipo de contenidos u otros y procesarlos está asociado con un polimorfismo genético común. En otras palabras, una actitud que puede influir en la visión más o menos optimista que tengamos de las cosas parece que tiene sustrato genético.
Por otra parte, que quienes tienen el alelo LS o SS tiendan a fijarse más en los aspectos desfavorables de las cosas es un problema, porque sufren neurosis, desórdenes emocionales y depresiones con más facilidad que los que se fijan en los aspectos favorables. Un aspecto colateral, pero muy importante de este asunto es que las mujeres tienen en general más receptores postsinápticos de serotonina pero menos transportadores. Como consecuencia de ello, reciclan este neurotransmisor a menor velocidad, lo que hace que su disponibilidad en la neurona presináptica sea menor. Y resulta que las mujeres tienen una mayor predisposición que los hombres a sufrir depresión.
Fuente: Elaine Fox, Anna Ridgewell & Chris Ashwin (2009): Looking on the bright side: biased attention and the human serotonin transporter gene. Proceedings of the Royal Society B 276: 1747-1751
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Un alelo para las gafas de color de rosa se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Todo lo que se puede medir en un río
El grupo de investigación Ecología de ríos/Stream ecology del Departamento de Biología Vegetal y Ecología de la UPV/EHU es un grupo especializado en el estudio del funcionamiento de los ríos, constituido por expertos en múltiples áreas. Dentro del marco del proyecto europeo Globaqua, en el que participan más de 10 instituciones europeas, han realizado un amplio trabajo de revisión que ha tenido como fruto un artículo “en el que sintetizamos y clasificamos todos los procesos que se pueden medir en los ríos; explicamos cómo se pueden realizar las mediciones (métodos que existen en la literatura), cómo responden dichos procesos a diversos estresores ambientales, etc.”, explica Daniel von Schiller, uno de los autores del artículo. Se trata de una “proposición que plantea un nuevo marco de trabajo muy apropiado tanto para investigadores como para gestores”, manifiesta.
Según constatan en el artículo, “tal y como marca la Directiva Marco del Agua, los ecosistemas de los ríos se deberían evaluar tanto desde el punto de vista de su estructura como de su funcionamiento, porque así se obtiene una mejor estimación del estado ecológico de un río”. El investigador hace una analogía con el cuerpo humano: “Si en un enfermo solo se mira si tiene corazón, pulmones y riñones, pero no se miden el pulso del corazón, cuánto volumen de aire respira o qué filtran los riñones, no se evalúa bien el estado de salud del paciente o en nuestro caso el estado ecológico del ecosistema que se está midiendo”.
Actualmente, las medidas que marcan los protocolos para saber cuál es el estado ecológico de los ríos son estructurales (relacionadas con la forma del canal, calidad del agua o composición de las comunidades biológicas): medidas de comunidades, de contaminantes, de temperatura, de concentración de nutrientes, etc. El funcionamiento de un ecosistema, sin embargo, se define como el conjunto de procesos que regulan tanto los flujos de materia como los flujos de energía dentro de un ecosistema. Los investigadores proponen, en ese sentido, toda una serie de medidas de funcionamiento complementarias, relacionadas con procesos de metabolismo, de descomposición de la materia orgánica, de ciclado de nutrientes, de dinámica de contaminantes y de dinámica de las comunidades fluviales.
En el estudio, además de recopilar métodos de medida de los diferentes procesos encontrados en la bibliografía, los han clasificado en función de variables como dificultad, complejidad, costes, escalas espaciales y temporales de medida, etc. “Por último —explica Daniel von Schiller—, hemos realizado un estudio exhaustivo en la literatura de las respuestas de los diferentes procesos a estresores ambientales de origen antropogénico (tales como contaminación, canalizaciones, acidez, etc.)”.
Como conclusión, el investigador manifiesta que “es la primera vez que se sintetiza todo lo que se puede medir en cuanto a procesos en ríos, y no solo presentamos qué se puede medir, sino también presentamos por qué, cómo y qué ventajas tiene un proceso frente a otro, y además cómo responde a estresores”. El objetivo de los investigadores ha sido crear una herramienta con la que puedan trabajar tanto personal investigador como gestor. El equipo, además, está ya en contacto con diferentes agentes y organismos relacionados con el control de aguas, entre las que se encuentra la Agencia Vasca del Agua – URA, para poner en marcha un novedoso proyecto de implementación de medidas e índices funcionales en ríos.
Referencia:
Daniel von Schiller et al. (2017).. “River ecosystem processes: A synthesis of approaches, criteria of use and sensitivity to environmental stressors”.. Science of the Total Environment. Vol. 596–597. Pages 465–480.. DOI: 10.1016/j.scitotenv.2017.04.081
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Todo lo que se puede medir en un río se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La parábola del coche eléctrico
El XX parecía destinado a ser el siglo de los vehículos eléctricos. Otras muchas facetas de la actividad industrial, urbana y doméstica se vieron afectadas por la electrificación en ese siglo. No así los automóviles. El primer vehículo eléctrico del que se tiene noticia fue obra del químico británico Robert Davidson. Lo fabricó en Aberdeen en 1837. En 1842 construyó otro con una batería de zinc, llamado Galvani, que se desplazaba a 4 millas por hora. El zinc que consumía era cuarenta veces más caro que el carbón que había que quemar en una máquina de vapor para conseguir el mismo resultado y, en todo caso, no era de ninguna utilidad. En 1884 Thomas Parker construyó en Londres el primer coche eléctrico de baterías recargables –un prototipo, en realidad- y en 1888 Andreas Flocken creó en Alemania el Flocken Elektrowagen, considerado el primer coche eléctrico verdadero de la historia. A partir de entonces se empezaron a fabricar industrialmente y llegaron a ser bastante populares por su fácil manejo y comodidad.
A finales del XIX había en Londres una amplia flota de taxis eléctricos conocidos con el nombre de “colibríes”. El Comisionado de la Policía Metropolitana aprobó su uso para hacer frente al creciente problema de tráfico, ya que ocupaban la mitad de espacio que los coches de caballos. Taxis similares circularon por París, Berlín y Nueva York. A comienzo del siglo XX había en los Estados Unidos más de treinta mil coches eléctricos registrados. Eran mucho más populares que los de gasolina, menos ruidosos y no contaminaban el aire de las ciudades. Sin embargo, en poco más de una década la fabricación de esos coches se redujo hasta cesar. Los conductores de los coches de caballos londinenses lanzaron una intensa campaña haciendo publicidad de las averías y accidentes de sus rivales eléctricos hasta conseguir sacar del mercado a la London Electric Cab Company. Los coches eléctricos tuvieron algunos problemas técnicos, es cierto, pero fueron exagerados por sus rivales, que se esforzaron por mostrar a sus nuevos competidores bajo la peor apariencia posible.
Al mismo tiempo, el descubrimiento de grandes reservas de petróleo hizo que el precio de éste se desplomase, y Henry Ford empezó a vender coches de gasolina a la mitad de precio que los eléctricos. La construcción de mejores carreteras en Norteamérica incentivó los desplazamientos de larga distancia en automóvil, algo que no estaba al alcance de los coches eléctricos por su escasa autonomía y excesivo tiempo necesario para recargar las baterías. La introducción en 1912 del motor de arranque eléctrico acabó por inclinar la balanza a favor del coche con motor de combustión interna. Así fue como este acabó siendo el que ganó el siglo que, al comienzo, iba a ser del motor eléctrico.
El prematuro fracaso de los coches eléctricos es una parábola que ilustra una de las dificultades más sorprendentes que afectan al desarrollo de ciertas novedades. Hay innovaciones supuestamente beneficiosas que no consiguen abrirse camino en el momento en que se intentan por primera vez. Para que la novedad tenga éxito deben darse, de forma simultánea, determinadas condiciones. En caso contrario, la experiencia está abocada al fracaso. En otras palabras: no basta con buenas ideas, hace falta, además, que las circunstancias acompañen. Es posible que en el pasado se quedasen en el cajón o la estantería ideas excelentes que tuvieron la mala fortuna de nacer antes de tiempo. Esa es la razón por la que se desarrollan hoy programas para recuperar buenas ideas que, cuando surgieron, no tenían el terreno abonado pero que quizás lo tengan en la actualidad.
—————————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 21 de mayo de 2017.
El artículo La parábola del coche eléctrico se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Arte & Ciencia: La ciencia como herramienta del arte
El arte y la ciencia son dos formas de conocimiento aparentemente alejadas, en gran medida consecuencia de la especialización profesional y la educación compartimentada. Del estudio de esta impostada separación surgió el estereotipo de las dos culturas, las ciencias y las humanidades, para referirnos a esa brecha de conocimiento. La realidad es que la ciencia y el arte sí están conectadas y que ninguna forma de conocimiento es impermeable a otra. Por poner algunos ejemplos: ¿Cómo podría crearse una obra plástica sin las técnicas propiciadas por la ciencia? ¿Cómo podríamos interpretar la elección de materiales?
Estas y otras cuestiones relacionadas furon tratadas por destacados profesionales -artistas, ilustradores, filósofos y científicos- que han puesto el foco en ese difuso trazo que une la ciencia y el arte. El ciclo Ciencia & Arte se desarrolló, bajo la dirección de Deborah García Bello, a lo largo de cuatro jornadas que se celebraron los jueves días 6 y 27 de abril y 11 y 25 de mayo de 2017 en el auditorio del Museo Guggeheim Bilbao.
Esta actividad de la Cátedra de Cultura Científica de la UPV/EHU se enmarca en el programa TopARTE que conmemora el XX Aniversario del Museo Guggenheim Bilbao.
Jornada 4. 2ª conferencia.
Déborah García Bello es investigadora de la relación entre arte y ciencia y divulgadora científica: La ciencia como herramienta del arte.
Las colaboraciones que existen entre artistas y científicosEdición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Arte & Ciencia: La ciencia como herramienta del arte se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Hondakinen bigarren bizitza
Ikerkuntza-lan honetan polisakaridoak eta proteinak erabili dira, berriztagarriak, ugariak eta ingurunearekin errespetutsuak izateaz gain, biokonpositeak eratzeko gaitasun bikainak dituztelako. Proteinen artean, landare-proteinak azpiproduktu edo hondakin gisa daude eskuragarri barazkigintzan zein nekazaritza-industrian. Hauen artean, soja-proteina aukera interesgarria da. Soja-proteina, soja-olioa ekoizterakoan azpiproduktu gisa lortzen da eta gainera, naturako proteinarik merkeenetarikoa da. Bestalde, landareetatik eratorritako polisakaridoen artean, agarra etorkizun handiko produktua da. Itsasoko alga gorritik erdietsi daiteke eta bere berriztagarritasuna, biodegradagarritasuna eta gelifikazio gaitasun altuagatik biokonpositeak garatzeko aukera interesgarria da. Hala ere, agarraren erauzketa ez da hain merkea; horregatik, soja-proteinan oinarritutako biokonpositeak prestatzeko alga-industrian sortutako hondakin naturala betegarri gisa erabiltzea proposatzen da (guk dakigula, ez da hau inoiz era horretan erabili). Gainera, hondakin horren erabilerak honako bi abantaila hauek izan ditzake: batetik, hondakina bera, era eraginkorrago batean erabil daiteke; eta bestetik, kostu baxuagoko azpiproduktuak lor daitezke. Hain zuzen, ekonomiarako eta ingurumenerako onurak ekar ditzake konposite jasangarriago horien garapenak.
Nahiz eta soja-proteinan oinarritutako biopolimeroek polimero sintetikoak ordezkatzeko ahalmena izan, eragozpen batzuk badituzte haien egitura kimikoarengatik, izaera higroskopikoa eta hauskortasuna, hain zuzen. Horren ondorioz, aldaketa batzuk beharrezkoak dira materiala erabilgarria bilakatzeko. Testu inguru honetan, biopolimeroen prozesatzea nahiz amaierako propietateak hobetzeko plastifikatzaileak beharrezkoak dira eta horregatik glizerola plastifikatzaile gisa erabili zen.
Gehigarriez gain, biokonpositeen propietateak hobetzeko polimeroaren prozesatze metodoa kontuan izatea garrantzitsua da. Ikerkuntza-lan askotan soluzio- eta konpresio- metodoak erabili ohi dira proteinetan oinarritutako konpositeak garatzeko. Hala ere, biokonposite berrien bideragarritasun komertziala zuzenki erlazionatuta dagoenez aplikazio industrialetan plastiko konbentzionalak garatzeko erabilitako teknikekin, lan honetan estrusio eta injekzio prozesatze-metodoak erabili ziren, soja-proteinan eta alga-hondakin betegarriz oinarritutako biokonpositeen garapenerako.
Orokorrean, alga-hondakin betegarriak soja-proteinarekiko bateragarritasun ona erakutsi zuen. Soja-proteinazko pelletak estrusio metodoaren bidez eta biokonpositeak injekzio metodoaren bidez lortu ziren. Lortutako biokonpositeen propietate funtzionalei dagokienez, alga-hondakinaren gehikuntzak ez zuen proteinan oinarritutako biokonpositeen hesi-propietate bikainak aldatu eta propietate optiko egokiak mantendu ziren paketatze aplikazioetan erabiltzeko. Bestalde, alga-hondakina balioztatzean, hondakinen kantitatea eta materialen kostua murriztu zen eta balio erantsizko produktuak garatu ziren.
Artikuluaren fitxa:- Aldizkaria: Ekaia
- Zenbakia: Ekaia 30
- Artikuluaren izena: Nola erabili azpiproduktuak eta hondakinak, propietate egokiak dituzten material jasangarriak garatzeko?
- Laburpena: Ikerkuntza-lan askotan soluzio- eta konpresio- metodoak erabili ohi dira proteinetan oinarritutako konpositeak garatzeko. Hala ere, biokonposite berrien merkatu-bideragarritasuna, zuzen lotuta dago industria-aplikazio konbentzionalak garatzeko teknikekin eta, beraz, lan honetan estrusio eta injekziorako prozesatze-metodoak erabili dira, soja-proteinan oinarritutako biokonpositeak garatzeko. Bestalde, agarra erauzterakoan hondakin naturala lortzen da. Hondakin hau, biokonpositeen betegarri gisa erabili da. Betegarri honek, soja-proteinarekiko bateragarritasun ona erakutsi zuen, eta horrela biokonposite jasangarriagoak garatu dira. Biokonpositeeen hesi-propietateak eta propietate optikoak egokiak izan ziren paketatze aplikazioetarako.
- Egileak: Tania Garrido, Itsaso Leceta, Pedro Guerrero eta Koro de la Caba
- Argitaletxea: UPV/EHUko argitalpen zerbitzua
- ISSN: 0214-9001
- Orrialdeak: 93-104
- DOI: 10.1387/ekaia.16278
—————————————————–
Egileez: Tania Garrido, Itsaso Leceta, Pedro Guerrero eta Koro de la Caba UPV/EHUko BIOMAT ikerketa Taldearen kideak dira.
—————————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.
The post Hondakinen bigarren bizitza appeared first on Zientzia Kaiera.
Por qué no nos basta con el viento
Sobrevivir a largo plazo como especie es, como las infames resoluciones de año nuevo, uno de esos objetivos que nadie persigue pero que todos aceptamos como evidente en sí mismo. Lo cierto es que hay muchas formas de plantearlo: ¿qué consideramos «largo plazo»? ¿Tiene que importarnos, necesariamente, lo que pueda ocurrirles a unos Homo sapiens que todavía no han nacido? Y, sobre todo, ¿qué entendemos por sobrevivir? La existencia de nuestros antepasados en las sabanas africanas, en números reducidos y rodeados de miseria, privaciones y aplicados depredadores es un modo de vida sin duda natural y sostenible. Así se mantuvo década tras década, siglo tras siglo, durante muchas decenas de miles de años. ¿Es esto lo que queremos para nuestra descendencia?
No cuesta mucho dudar de semejante concepto de supervivencia. Dejemos de lado a los ecologistas radicales que, secretamente o no tanto, desearían diezmar nuestras muchedumbres hasta dejarlas en poquedumbres, arrancarnos de las manos nuestros teléfonos inteligentes y nuestros frigoríficos y arrojarnos de vuelta al paleolítico, donde podremos poner en práctica la «dieta paleo»… de algún animal con dientes afilados. Lo que de verdad entendemos por «supervivencia a largo plazo» es una existencia estable e iluminada, con tecnología —desde luego— pero en equilibrio con el resto de los seres vivos que nos rodean, a lo largo de al menos tantas decenas de miles de años como llevamos en este caballito de tiovivo esférico que llamamos Tierra.
Dejaré para mejor ocasión el frente abierto de si tal deseo puede cumplirse, pero suponiéndolo posible, tengo una noticia: no hay forma de poder realizar un objetivo así si no encontramos el modo de satisfacer nuestras necesidades energéticas de un modo completamente renovable. El segundo principio de la Termodinámica prohíbe, a la postre, la existencia de fuentes de energía sin fin: sin embargo, en tanto nuestro número no se dispare exponencialmente ni hablemos de escalas de tiempo cósmicas no deberíamos preocuparnos. Podemos representarnos a nosotros mismos «agotando» el petróleo, o —al nivel de extracción energética de los procesos de fisión nuclear industrial actuales— el uranio: es mucho más difícil pergeñar formas de acabar con el viento o la luz del sol.
La tecnología de nuestro siglo tiene, en el campo de las energías renovables, tres protagonistas fundamentales: la eólica, la solar y la hidroeléctrica. En el caso de esta última, parece evidente el motivo por el que no satisfacemos todas nuestras necesidades de energía con ella: es fuertemente dependiente de la existencia de grandes masas de agua que represar y terrenos con cuencas en los que hacerlo —recursos que no están disponibles con la frecuencia que desearíamos. Las otras dos fuentes energéticas no tienen, a primera vista, más límites para su despliegue que la disponibilidad de terrenos y la voluntad inversora de Estado y empresas; competirán entre sí y la más rentable tomará la delantera. El mercado decide: ¿qué está escogiendo?
Observemos el gráfico de distribución de la potencia instalada en España por tipo de fuente. Si recalculamos los porcentajes de las renovables sobre su propio total obtenemos que la energía hidráulica supone un 35,6%, la eólica un 48,1% y la solar, en todos sus tipos, un magro 9,7%, quedando un testimonial 4,8% para otras fuentes de energía como la biomasa, la geotérmica o la maremotriz. La inmensa mayoría de los embalses posibles en España ya están construidos, así que no es de esperar que el porcentaje de la energía hidráulica aumente significativamente en el futuro. Está claro que el modo de generación que más rentable está resultando y sobre el que puede predecirse un mayor crecimiento en los próximos cinco años es el viento. La pregunta clave para el futuro de nuestras necesidades energéticas es: ¿por qué no alimentar todo con aerogeneradores?
Los nuevos gigantes
Desde finales de los años 90, los aerogeneradores han pasado de ser una visión extraña a salpicar nuestra geografía con casi mil parques contabilizados a finales de 2016, distribuidos por todas las regiones españolas con las llamativas excepciones de Extremadura y Madrid (Ceuta y Melilla tampoco tienen parques eólicos, pero su pequeño tamaño hace más difícil sorprenderse por ello). Estos nuevos molinos serían, a la vista de un aspirante a moderno Alonso Quijano, una vista mucho más espantable que los antiguos: bestias blancas dispuestas en grupos de varias decenas, de tres aspas con un diámetro de giro de más de sesenta metros, apoyadas sobre una airosa columna de otros tantos de altura —el diseño convencional, de origen danés, dicta que la longitud de la pala tenga aproximadamente la mitad de la altura de la columna para un efecto más agradable a la vista.
La rotación del aerogenerador, comprendida habitualmente entre las 8 y las 30 revoluciones por minuto para velocidades del viento entre los 5 m/s (la llamada «velocidad de conexión», por debajo de la cual el sistema no puede girar) y los 25 m/s (la «velocidad de corte», a partir de la que las aspas frenan para evitar problemas de sobrecalentamiento y cargas mecánicas excesivas), permite mover un generador que transforma el movimiento en energía eléctrica. El sistema es más complejo de lo que parece —¿qué no lo es?— pero funciona con una eficiencia de conversión máxima del 46%: de la energía total contenida en el movimiento del aire frente a las palas, hasta un 46% puede extraerse y convertirse en electricidad apta para ser vertida a las redes de distribución.
Para un sistema cuyo «combustible» es completamente gratuito, la cifra es completamente excepcional. De hecho, esta conversión máxima se encuentra tan cerca del límite teórico de extracción de energía del viento (conocido como límite de Betz, y que surge del hecho de que la velocidad del aire tras atravesar el plano de las aspas del aerogenerador no puede descender a cero) que el sistema no se optimiza para un aprovechamiento máximo, sino para un coste mínimo de fabricación y despliegue dada una conversión razonable. La energía eólica ya puede compararse en pie de igualdad con otras fuentes energéticas.
No es de extrañar, por tanto, que en los últimos tiempos un número creciente de colectivos ecologistas estén clamando por la sustitución de las centrales nucleares con energías renovables. El último ejemplo, el pasado mes de junio en Madrid, vio reunirse a varios cientos de personas en una manifestación convocada por más de 120 asociaciones (!). El lema principal de esta manifestación, «Cerrar Almaraz y todas las demás, 100% renovables», expresa la preocupación común entre los colectivos que hacen política con la ecología de que las centrales nucleares son peligrosas y deben ser sustituidas, a la mayor brevedad posible, por fuentes de energía renovable. Como hemos visto, la fuente de energía más preparada para intentar realizar esa transición en un plazo relativamente corto de tiempo es el viento. Planteémosnos la pregunta: ¿es posible sustituir una central nuclear como Almaraz con parques eólicos? Y de ser la respuesta afirmativa, ¿qué implicaría exactamente?
Efecto estela y factor de carga
Cuando se trata de adaptar una tecnología como la eólica para su uso a gran escala es necesario no perder de vista dos fenómenos fundamentales. El primero de ellos impone una consideración práctica de alcance a la hora de diseñar parques eólicos. El segundo establece una limitación más seria, dependiente de la naturaleza misma del recurso aprovechado.
Fijémonos en un molino concreto, con un determinado diámetro de rotor (utilizaremos este parámetro más adelante). El efecto estela es la alteración en el flujo de aire que lo atraviesa debido a las turbulencias inducidas por las aspas y a la propia extracción de la energía del movimiento. El viento saliente de la hélice se mueve más lentamente que el entrante —esa es exactamente la diferencia entre un aerogenerador y un ventilador— y lo hace, además, de un modo más irregular. Esto afectará a otros generadores situados a sotavento del molino en el que nos hemos fijado.
Para compensar el efecto estela, los diseñadores de parques eólicos utilizan el criterio de separar los generadores en filas perpendiculares a la dirección de los vientos dominantes en cada zona, separadas entre sí entre 5 y 9 diámetros de rotor. La separación entre molino y molino en la dirección perpendicular a la de los vientos dominantes (es decir, según las filas en las que se ubiquen) puede ser inferior, de 3 a 5 diámetros. Además, los generadores se colocan al tresbolillo, de manera que se aumente la distancia al máximo posible entre los ubicados en filas contiguas. A pesar de estas precauciones, es común encontrarse con pérdidas «de parque» del orden del 5% respecto a lo que podría generar un solo molino en las mismas condiciones de viento.
Diseñar un parque de aerogeneradores no es una tarea trivial. Desde el punto de vista del mantenimiento y la interconexión eléctrica, interesa colocar los molinos lo más próximos posible entre sí para reducir pérdidas eléctricas y disminuir las distancias de los viales (los caminos que permiten recorrer el parque para realizar tareas de mantenimiento y que tienen que soportar el paso de los transportes especiales y las grúas necesarios para el montaje de los aerogeneradores). Sin embargo, el efecto estela obliga a mantener unas distancias mínimas que, para diámetros de rotor de 60 metros, puede superar el medio kilómetro —será mayor para rotores más grandes. La topografía de la zona conspira en la mayor parte de las ocasiones para hacer todo más complejo aún, restringiendo las posiciones posibles para las bases de los aerogeneradores, complicando la distribución de los viales y alterando localmente el flujo del viento.
El segundo fenómeno a considerar es el llamado factor de carga. El viento, por su naturaleza, es un recurso variable en el tiempo: y varía, además, de una forma muy compleja a diferentes escalas. En nuestras latitudes el viento suele ser más fuerte en invierno que en verano: se trata de la variación estacional. Por su parte, los cambios en la temperatura del suelo y el aire a lo largo del día suelen provocar un patrón de variación diaria por el que los vientos son más rápidos en las horas cercanas al mediodía solar que por la noche. Finalmente, y a escalas temporales más pequeñas, el viento se comporta de forma aleatoria que puede modelarse matemáticamente. El factor de carga es la razón entre la energía efectivamente generada por un molino a lo largo de un periodo de tiempo determinado y la máxima que podría generar, para una velocidad óptima y constante del viento. Los factores de carga habituales en aerogeneradores suelen estar entre el 20 y el 30%.
El viento frente al uranio
Ya disponemos de las herramientas necesarias para contestar a la pregunta que nos planteamos hace unos párrafos: ¿es posible sustituir una central nuclear como la de Almaraz con parques eólicos? En caso afirmativo, ¿cómo sería un parque de aerogeneradores con la misma potencia? Observemos primero los siguientes datos reales de los últimos diez años para la generación eólica y la nuclear, obtenidos del anuario estadístico de Red Eléctrica de España.
Los datos han sido tabulados de forma que la comparación sea sencilla. Para empezar, llama la atención la gran diferencia entre potencia instalada eólica y nuclear. El número de aerogeneradores ha aumentado de forma constante en nuestro país hasta el año 2012, en el que un cambio legislativo en la asignación de primas de generación renovable detuvo por completo la expansión del sector —este mismo año se han reanudado las subastas de potencia renovable con un sistema nuevo de subasta que tiende, a la vista de los resultados, a eliminar las primas: veremos cómo evoluciona el mercado a partir del año que viene.
Por su parte, la energía nuclear apenas ha variado: no se han construido centrales nuevas —y no se hace desde el inicio de la llamada «moratoria nuclear» en 1982. Las únicas modificaciones en la potencia instalada son debidas a pequeñas mejoras técnicas y puntuales en las centrales existentes. Sin embargo, pese a que hay instalados tres vatios eólicos por cada vatio nuclear (en 2016), las centrales nucleares todavía producen casi un 18% más. Esto es debido al efecto del factor de carga característico de cada tecnología, que para los últimos 10 años ha sido de un 24% para la eólica frente a casi un 84% para la nuclear. Es decir: si la central nuclear de Almaraz tiene una potencia instalada de 2093 MW, no basta con instalar los mismos vatios eólicos para igualar su capacidad de generación. Ajustando los diferentes factores de carga, resulta que necesitaremos 7262 MW eólicos para igualar la capacidad de generación de la nuclear.
Ya tenemos una cifra de potencia a instalar, pero ¿cómo será de grande el parque eólico necesario para sustituir Almaraz? Esta deberá ser una cuenta aproximada debido a la complejidad del diseño de un parque eólico, que depende fuertemente de su ubicación. Vamos a suponer, sin embargo, un parque ideal de aerogeneradores no excesivamente caros, de 600 kW y un diámetro de rotor de 50 metros, para unas distancias entre postes medias de 7 diámetros de rotor en la dirección del viento dominante y de 4 diámetros en la perpendicular. En primer lugar, dividiendo la potencia que necesitamos entre la de un aerogenerador (sin olvidar igualar las unidades), obtenemos la cifra de molinos a instalar: aproximadamente 12000. Que un parque normal de aerogeneradores en España tenga alrededor de 60 unidades instaladas nos está indicando que nos enfrentamos a una empresa complicada. Sigamos adelante, sin embargo.
La separación que hemos estimado entre generadores nos puede dar una idea de cuál será la «huella» de cada uno de ellos. Usando una disposición aproximadamente rectangular podríamos ubicar 110 generadores en 110 filas. Cada fila tendrá 22 kilómetros de longitud, y el conjunto de filas se extenderá a lo largo de 38 kilómetros: multiplicando, obtenemos un parque de 847 kilómetros cuadrados. Por poner la cifra en algún contexto significativo, estaríamos hablando de un parque que ocuparía el 40% del área de Bizkaia y que tendría alrededor de 3000 kilómetros de viales de acceso para comunicar entre sí los generadores. Con molinos más grandes (y más caros) de 2000 kW y diámetros de rotor de 80 metros, el parque teórico tendría 645 km².
Vistas estas cifras, lo razonable sería fragmentar la potencia en varios centenares de parques, que podrían convertirse en algunos miles si el objetivo fuera sustituir por energía eólica toda la generación nuclear actual de España. ¿Es posible? Solo marginalmente, y a un coste muy elevado tanto económico como ecológico. No debemos olvidar que este análisis no tiene en cuenta que el factor de carga de la energía eólica es un promedio: la energía realmente generada mostrará la misma variabilidad compleja que hemos descrito antes para el viento. Hacerla constante requeriría del concurso de tecnologías adicionales, como inmensos bancos de baterías, que aún no se encuentran desarrolladas a la escala necesaria. Podemos hacer también una predicción para el futuro que tiene muchas probabilidades de cumplirse: la oposición ecologista a la energía nuclear se iría desplazando, paulatinamente, a la energía eólica conforme esta adoptara una posición preponderante en el combinado energético.
Una política energética racional debería potenciar y diversificar las energías renovables, pero no a expensas de la potencia nuclear ya instalada y con una vida útil aún larga por delante, sino frente a las tecnologías que más comprometen los objetivos de emisión de CO₂: carbón y petróleo. Combinar este enfoque con una decidida inversión en ahorro energético e investigación y desarrollo en todos los campos de producción de energía aparece como la apuesta de futuro con más probabilidades de llevar a nuestra especie más allá de los confines de este aterrador siglo. Después… veremos.
Este post ha sido realizado por Iván Rivera (@Brucknerite) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU
Referencias y más información:
Red Eléctrica de España. (28/06/2017). Las energías renovables en el sistema eléctrico español 2016. Visitado el 20/07/2017 en http://www.ree.es/es/estadisticas-del-sistema-electrico-espanol/informe-de-energias-renovables
Barbero, A. J. (2012). Curso de Física Ambiental, Universidad de Castilla-La Mancha. Visitado el 24/07/2017 en https://previa.uclm.es/profesorado/ajbarbero/FAA/EEOLICA_Febrero2012_G9.pdf
Grodira, F. (10/06/2017). Más de medio millar de personas se manifiestan en Madrid contra las nucleares. Público. Visitado el 25/07/2017 en http://www.publico.es/sociedad/medio-millar-personas-manifiestan-madrid.html
El artículo Por qué no nos basta con el viento se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:La contradicción de la publicación
La ciencia, como actividad, se basa en la publicación de sus resultados: en que los científicos hagan públicos los descubrimientos, reflexiones y datos, permitiendo así que otros científicos los conozcan y utilicen en sus propias reflexiones y experimentos. En el ámbito científico se lleva al extremo aquel viejo refrán de literatos que dice que escribir para el cajón es masturbación; en ciencia lo que no se ha publicado sencillamente no existe. Las reputaciones de quienes practican ciencia, su importancia y su influencia dependen de sus publicaciones; artículos, principalmente, aunque después también revisiones y libros de texto. Hacer ciencia incluye, por definición, hacer pública la ciencia.
Pero en los últimos tiempos dos factores han contribuido a deformar el sistema de publicación, retorciéndolo y haciendo que cada vez se aparte más de su función original dentro del método de la ciencia. Por una parte la práctica científica se ha burocratizado: al convertirse los estados en una parte clave de la financiación y el respaldo de la ciencia necesariamente su práctica se ha transformado. Las carreras científicas se han estandarizado; los sistemas para solicitar financiación se han convertido en estructuras burocráticas con sus plazos, sus instancias y sus currículos normalizados. Para que cualquier sistema burocrático funcione es necesario evaluar los resultados de las diferentes medidas tomadas; el rendimiento de los fondos invertidos, o la calidad y productividad de los científicos individuales.
Porque a la hora de dar plazas, o recursos, la burocracia exige baremos y la cantidad y calidad de los trabajos publicados se han convertido en las medidas clave del sistema científico. El número de ‘papers’ publicados y su impacto según diversos índices (número de citas, calidad de las revistas, etc) son ahora la llave para obtener plazas, laboratorios, becarios, proyectos; en suma, para progresar en ciencia. De ahí el famoso ‘publish or perish’ (publica o perece) que impulsa a los científicos en activo. Ya no la reputación o el gran descubrimiento: lo que hace falta es tener muchas publicaciones en revistas de impacto y un índice h cuanto mayor, mejor.
Simultáneamente a esto y en paralelo la publicación científica se ha convertido en un negocio multimillonario que proporciona pingües beneficios a un puñado de poderosas empresas. Gracias a la inteligencia empresarial de algunos y a la necesidad de vehículos de publicación que tiene la creciente masa de científicos en activo (sobre todo del sector público) han ido surgiendo decenas de miles de revistas especializadas en campos cada vez más recónditos con un modelo de negocio espectacular para cualquier editor: los autores no cobran por publicar (a veces pagan), los editores no cobran por editar (o reciben pagas ridículas) y universidades y centros de investigación están obligados a comprar las revistas resultantes al precio que les pongan (o a pagar la suscripción electrónica). Un verdadero chollo de negocio, respaldado además por una legislación de ‘propiedad’ intelectual excesiva que sesga el mercado hacia los intereses de las editoriales en cuestión.
Como consecuencia de estos dos factores se está produciendo una serie de deformaciones y monstruosidades que están afectando a la ciencia misma. Estamos viendo a científicos que cometen ‘piratería’ para dar a conocer su propio trabajo a otros científicos del ramo. Las universidades y centros de investigación dedican enormes sumas a pagar suscripciones, un dinero que no se puede dedicar a la propia investigación. La situación llega a tal punto que se han creado grandes depósitos ‘piratas’ de artículos que millones de científicos de todo el mundo usan como último recurso, además de proyectos de ciencia en abierto, con éxito creciente. Al mismo tiempo ha nacido y crecido una industria de revistas predatorias que se aprovechan de la enorme necesidad de publicar para cobrar a los científicos por hacerlo, aunque sea con ínfima calidad. Todo esto supone el desvío de ingentes cantidades de dinero público a bolsillos privados, con el agravante de que esos beneficios se basan no en dar a conocer los resultados de la ciencia, sino en limitar el acceso a sus publicación.
Hay indicaciones de que el sistema está sometido a tanta tensión que se está rompiendo. Sci-Hub es ahora tan grande que podría acabar por destruir el sistema de publicación ‘for profit’ y el cártel de las grandes editoriales; el problema de las revistas predatorias (también hay seminarios y simposios) está recibiendo más atención y se está dejando de considerar el simple número de publicaciones y firmas como criterio válido para científicos o proyectos. Los centros de investigación públicos, que ya han pagado por crear los resultados, están apostando por sistemas de distribución de estos resultados que no les cuesten aún más dinero. Todo lo cual son pasos en la buena dirección, que no serán suficientes mientras los sistemas de evaluación de calidad y productividad se sigan basando en criterios tan poco inteligentes como los actuales. Porque por definición ciencia es publicar, y es una contradicción intrínseca y un absurdo basar su medida en cualquier limitación de la publicación.
Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.
El artículo La contradicción de la publicación se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Dozena erdi ariketa 2017ko udarako (1): Lau zifrako zenbakiaren bila
Gogoan izan ahalegina bera –bidea bilatzea– badela ariketa. Horrez gain tontorra (emaitza) lortzen baduzu, poz handiagoa. Ahalegina egin eta emaitza gurekin partekatzera gonbidatzen zaitugu. Ariketaren emaitza –eta jarraitu duzun ebazpidea, nahi baduzu– idatzi iruzkinen atalean (artikuluaren behealdean daukazu) eta irailean emaitza zuzenaren berri emango dizugu.
Hona hemen gure lehenengo ariketa: Lau zifrako zenbakiaren bila. 1) Lau zifrako zenbaki bati bere zifren batura gehituta 2017 lortzen da. Zeintzuk dira propietate hori duten zenbakiak? Zifren batura gehitu beharrean kenduz gero, bada soluziorik?———————————————————————————-
Ariketak “Calendrier Mathématique 2017. Un défi quotidien” egutegitik hartuta daude. Astelehenetik ostiralera, egun bakoitzean ariketa bat proposatzen du egutegiak. Ostiralero CNRS blogeko Défis du Calendrier Mathématique atalean aste horretako ariketa bat aurki dezakezu.
———————————————————————————-
The post Dozena erdi ariketa 2017ko udarako (1): Lau zifrako zenbakiaren bila appeared first on Zientzia Kaiera.
El teorema de Marion (Walter)
El teorema de Marion es un bonito ejemplo de resultado de geometría afín. No se sabe quién fue la primera persona que lo enunció, pero la matemática Marion Walter (1928) lo explicó en alguna de sus clases y también aparece en varios sus trabajos; por ello se recuerda con su nombre.
El teorema afirma lo siguiente:
Tomemos un triángulo cualquiera ABC, trisequemos sus lados y unamos cada uno de los dos puntos que definen esta división con el vértice del lado opuesto del triángulo (ver la figura 1). Queda determinada una región hexagonal central (de vértices DEFGHI en la figura 1) cuya área es 1/10 del área del triángulo original.
La demostración de este teorema no es complicada; puede encontrarse, por ejemplo, una prueba en [1] en la que se utilizan coordenadas trilineales respecto del triángulo ABC.
En 1994, Ryan Morgan (ver [2]) generalizó este teorema en los siguientes términos:
Dado un triángulo cualquiera ABC, si se dividen sus lados en n partes iguales (donde n es un número entero impar) y se une cada uno de los n-1 puntos que definen esta división con el vértice del lado opuesto del triángulo, entonces queda determinada una pequeña región hexagonal central. La razón entre el área de este hexágono y la del triángulo original es constante. Más concretamente, el área de esta región es
del área del triángulo original.
Para n=3 tenemos, efectivamente, el teorema de Marion.
Si n es par, el proceso anteriormente descrito no produce un hexágono central necesariamente, o no tiene porqué ser único. Aunque existen resultados parciales como el dado en [3] para n=4.
Recordemos que se llaman números poligonales centrados a aquellos números figurados que pueden representarse mediante un conjunto de puntos equidistantes formando un polígono regular. Entre ellos, los números nonagonales centrados son aquellos que pueden representarse sobre un nonánogo, con un punto en el centro rodeado de sucesivas capas nonagonales:
Los números (3n+1)(3n-1)/8, para n entero impar, que aparecen en el teorema de Morgan son precisamente números nonagonales centrados. Puede encontrarse un listado con los primeros y algunas de sus propiedades en The On-Line Encyclopedia of Integer Sequences (ver [4]); son: 1, 10, 28, 55, 91, 136, 190, 253, 325, 406, 496, 595, 703, 820, 946, 1081, 1225, 1378, 1540, 1711, 1891, 2080, 2278, 2485, 2701, 2926, 3160, 3403, 3655, 3916, 4186, 4465, 4753, 5050, 5356, 5671, 5995, 6328, 6670, 7021, 7381, 7750, 8128, 8515, 8911, 9316, …
¿No es emocionante ver como se relacionan estos números –los del teorema de Morgan y los nonagonales centrados–procedentes de acercamientos diferentes?
Por cierto, aparte de este bellísimo teorema, otra de las aportaciones que debemos a Marion Walter es una colección de setenta fotografías de su colección particular realizadas, en su mayoría, por la propia Marion y que han pasado a formar parte de los Archives of American Mathematics. En ellas aparecen notables matemáticas y matemáticos, comoTobias Danzig, Paul Erdös, Paul Halmos, Irving Kaplansky, Alexander Ostrowski, George Pólya, Mina Rees, Isaac Schoenberg u Olga Taussky-Todd, entre otros.
Referencias
[1] Marion’s theorem, Wolfram MathWorld
[2] Ryan Morgan, No Restriction Needed. The Mathematics Teacher 87, 726 y 743, 1994.
[3] Luca Goldoni, A generalization of Marions Walter’s theorem, 2016
[4] A060544: Centered 9-gonal, OEIS
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo El teorema de Marion (Walter) se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Evolución de los sistemas nerviosos: el tálamo y el hipotálamo
Como vimos en la anotación anterior de esta serie, el prosencéfalo o encéfalo anterior de los vertebrados está integrado por el diencéfalo y el cerebro. En esta ocasión nos ocuparemos del diencéfalo que, como también vimos, comprende el tálamo y el hipotálamo, dos estructuras con funciones netamente diferenciadas.
El tálamo
Del tálamo se podría decir que se encuentra en lo más profundo del encéfalo, justo por encima del tallo encefálico y cerca de los ganglios basales. Cumple la función de “estación de relevo” y centro de integración sináptica para un primer procesamiento de las señales sensoriales en su trayecto hacia la corteza cerebral. Realiza una labor de cribado de señales insignificantes y dirige los impulsos sensoriales importantes a las áreas de la corteza somatosensorial (a la que nos referiremos en próximas anotaciones) y a otras regiones del encéfalo. Y de la misma forma que conduce información sensorial a la corteza, también recibe señales de aquélla, señales susceptibles de modificar su propia actividad, haciendo variar la intensidad y naturaleza de la información que remite a otros centros.
Junto con el tallo encefálico y áreas asociativas de la corteza, el tálamo es clave para dirigir la atención hacia estímulos relevantes. Un ejemplo ilustrativo de esa función (en mamíferos) es la facilidad con la que la madre –y el padre en aquellas en que el cuidado parental es compartido- despierta al menor suspiro del bebé pero permanece dormido en medio de una tormenta violenta. También es capaz de hacer conscientes otras sensaciones, aunque no lo es de identificar la localización de los correspondientes estímulos o de determinar su intensidad.
Además de las anteriores, el tálamo juega un papel importante en el control motor, reforzando el comportamiento motor voluntario iniciado por la corteza.
El hipotálamo
Su posición es, como su nombre indica, inferior a la del tálamo, y algo más adelantada. Es una colección de núcleos específicos con sus fibras nerviosas asociadas. Es un centro de integración de varias y muy importantes funciones de regulación homeostática del organismo. Vincula funcionalmente el sistema nervioso autónomo con el sistema endocrino; de ahí el carácter integrador al que acabamos de aludir. De hecho, el hipotálamo conforma el sistema de integración neuroendocrino por excelencia: el denominado sistema hipotálamo-hipofisario que, como su nombre indica, está integrado por la hipófisis o glándula pituitaria (glándula máster del sistema hormonal) y el hipotálamo. En futuras anotaciones nos referiremos con detalle a este sistema.
En concreto, el hipotálamo controla los siguientes procesos o funciones: (1) la temperatura corporal en homeotermos; (2) la sed y la producción de orina, o sea, controla el balance de agua y de sales del organismo; (3) la ingestión de alimento; (4) las contracciones uterinas y la eyección de leche en mamíferos; (5) coordina el sistema nervioso autónomo, lo que afecta a la actividad de músculo liso y del cardiaco, así como a las glándulas exocrinas; y (6) juega un papel fundamental en el comportamiento y la expresión de las emociones. Parte de estas tareas las realiza mediante la intermediación o a través de la glándula pituitaria.
El hipotálamo ocupa un nivel intermedio en la jerarquía del control neurológico y está considerado como un centro integrador de reflejos. Quiere esto decir que recibe señales de receptores sensoriales internos y, en respuesta, envía órdenes a través de vías en las que intervienen muy pocas sinapsis para generar rápidamente las respuestas reguladoras. Como ocurre con otros reflejos, esas respuestas se producirían con más retraso si interviniesen los centros superiores del cerebro. Un ejemplo ilustrativo es lo que ocurre con la señal de frío: la respuesta hipotalámica da lugar a una serie de acciones que promueven la producción de calor (como la tiritación), a la vez que se reduce la pérdida de calor corporal disminuyendo notablemente la circulación periférica al provocar el estrechamiento de los vasos sanguíneos más superficiales, o sea, aumentando el aislamiento.
Fuentes:
David Randall, Warren Burggren & Kathleen French (2002): Eckert Animal Physiology: Mechanisms and Adaptations 5th ed.; Freeman & Co, New York
Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo Evolución de los sistemas nerviosos: el tálamo y el hipotálamo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:El estatus de la segunda ley de la termodinámica
La segunda ley de la termodinámica tiene un estatus bastante diferente al de las leyes de conservación.
Efectivamente, si bien al igual que éstas la segunda ley es extremadamente efectiva y de gran alcance, además de ser una de las leyes fundamentales de la ciencia, tiene una diferencia fundamental con las leyes de conservación o con las leyes del movimiento de Newton. La segunda ley de la termodinámica más que proporcionar resultados mensurables con precisión establece qué procesos o fenómenos son imposibles.
Así, por ejemplo, es imposible hacer que la entropía del universo (o de un sistema aislado) disminuya; es imposible hacer que el flujo de calor vaya de un cuerpo frío a uno caliente a no ser que se efectúe trabajo sobre algo, como ocurre en una máquina frigorífica; es imposible inventar un motor térmico con una eficiencia superior al 100%.
En otras palabras, la segunda ley implica de forma fundamental que los procesos en los que interviene el calor suceden sólo en una dirección: la entropía aumenta; el calor fluye de objetos calientes a los fríos. Por lo tanto, la segunda ley enlaza de forma fundamental con la idea de que el tiempo transcurre en una sola dirección. Esto es, eso que vemos cuando hacemos que una película de acontecimientos cotidianos vaya marcha atrás no puede ocurrir en el mundo real. Por ejemplo, dos líquidos se pueden mezclar rápida y espontáneamente por sí mismos; pero no pueden desmezclarse espontáneamente
Hemos visto, aunque no lo hemos dicho expresamente así, que durante los procesos reversibles, como en los que intervienen máquinas térmicas ideales sin fricción, la entropía del universo se mantiene constante, o sea, que ΔSuniverso= 0 . Sin embargo, en todos los demás procesos, todos los que no son reversibles, la entropía del universo aumentará, ΔSuniverso> 0. Esto implica que no existe ningún caso en el que la energía del universo disminuya. Lo que quiere decir, por ejemplo, que el calor no fluirá espontáneamente de los cuerpos fríos a los calientes, porque ello implicaría una disminución de entropía. De forma análoga, no cabe esperar que una pelota que está en el suelo del patio adquiera espontáneamente energía del entorno y se lance hasta el tercer piso del colegio; ni que un huevo batido se desbata, ni que el barco en el que haces un crucero tome energía del mar y lance cubitos de hielo por la chimenea. Démonos cuenta de que todos estos procesos podrían ocurrir sin que se violase ninguna de las leyes de la mecánica newtoniana o ninguna ley de conservación. Pero son cosas que no pasan. Y no pasan porque las “prohíbe” la segunda ley de la termodinámica [1].
Todos los procesos reales [2] que podamos enumerar serán con casi total seguridad, irreversibles y, por lo tanto, contribuirán al incremento de la entropía del universo. Pero esto tiene una consecuencia ingenieril importante: el calor útil para conseguir que las máquinas hagan trabajo se está agotando. William Thomson, más conocido por la fórmula de tratamiento nobiliario británica, Lord Kelvin, predijo que al final todos los cuerpos del universo alcanzarían la misma temperatura a base de intercambiar calor unos con otros. Cuando esto ocurriese, sería imposible producir trabajo útil a partir del calor, ya que el trabajo solo se puede producir a partir de máquinas térmicas cuando el calor fluye de los cuerpos calientes a los fríos. Los ingenieros dejarían de ser necesarios, todo lo parecido a vida (una forma de máquina térmica) dejaría de existir, las estrellas se disgregarían tras apagarse, y el universo habría muerto [3].
Veremos estas ideas con más detalle y algo matizadas en próximas entregas cuando introduzcamos las moléculas en nuestro estudio de la dinámica del calor. Porque, efectivamente, para todo esto no nos ha hecho falta ni siquiera suponer que existen los átomos.
Nota:
[1] Entrecomillamos “prohíbe” porque la segunda ley, tal y como la hemos deducido, es solo una ley fenomenológica que describe qué ocurre, no prescribe qué ocurre. Es como los diccionarios bien entendidos, describen cómo se usa el lenguaje pero no tienen potestad alguna para decir cómo se debe hablar (por mucha autoridad dictatorial que alguno se atribuya y muchos seguidores que tenga el dictador).
[2] Preventivamente: un cambio infinitesimal es una idealización matemática.
[3] El tema de la muerte térmica puede encontrarse en muchos relatos de ciencia ficción. Especialmente reseñables son “La máquina del tiempo” de H.G. Wells y el relato breve “La última pregunta” de Isaac Asimov.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo El estatus de la segunda ley de la termodinámica se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Zientziaren poesia
Maria Mitchell: “Zientzialariok, batez ere, irudimena behar dugu. Ez dira nahikoak ez matematikak, ez logika: estetika eta poesia apur bat behar dugu”.
—————————————————–
Egileez: Eduardo Herrera Fernandez, Leire Fernandez Inurritegi eta Maria Perez Mena UPV/EHUko Letraz – Diseinu Grafikoko eta Tipografiako Ikerketa Taldeko ikertzaileak dira.
—————————————————–
Aipua eta irudia UPV/EHUko Zientzia Astea: Alfabetatze zientifikoa Alfabetización científica liburutik jaso dugu. Eskerrak eman nahi dizkiegu egileei eta UPV/EHUko Zientzia Astearen arduradunei, edukia blogean argitaratzeko baimena emateagatik.
The post Zientziaren poesia appeared first on Zientzia Kaiera.
El tono absoluto y las lenguas tonales
El tono absoluto (absolute pitch) o tono perfecto (perfect pitch) es la capacidad para identificar una nota musical cualquiera en ausencia de una nota de referencia. En Europa y Estados Unidos tan solo una persona de cada diez mil posee esa capacidad, aunque esa proporción es algo mayor entre quienes han recibido formación musical en edades inferiores a los cinco años.
La mayoría de la gente es capaz de identificar centenares de pasajes musicales y sin embargo, el tono absoluto es, como hemos visto, rarísimo. Aunque no tanto, también es raro en músicos profesionales, que pasan miles de horas leyendo partituras e interpretándolas. Y aunque se ha intentado entrenar a músicos adultos para que lo adquiriesen, los intentos no han dado el resultado buscado.
Desde 2006 se sabe que la capacidad para identificar un tono es mayor aún en los estudiantes de música que hablan mandarín, cantonés o vietnamita. Eso es debido al hecho de que hablan, desde pequeños, lenguas tonales, lenguas en las que el significado depende de modo crítico de la entonación con la que se pronuncian las sílabas.
En una prueba en la que se pedía que se identificasen 36 notas de tres octavas y emitidas en orden aleatorio, las personas que hablaban con fluidez alguna de esas tres lenguas identificaban más del 90% de las notas si habían empezado a estudiar música antes de los cinco años y algo menos del 90% si lo habían hecho entre los cinco y los nueve años. Por contraste, los hablantes de inglés, que no es una lengua tonal, tan solo identificaban el 25% y el 12% en cada caso. Y esos porcentajes no variaban dependiendo de si esos hablantes eran de origen caucásico o si se trataba de descendientes de familias que procedían de países en los que se hablan lenguas tonales. En otras palabras, no se trata de una capacidad ligada al origen de los individuos, sino a si la lengua que hablan es tonal o no. Por cierto, las citadas no son las únicas lenguas tonales; hay algunas en América y bastantes lenguas africanas lo son también.
Fuente: esta información procede de diferentes trabajos dirigidos por la profesora Diana Deutsch, del Departamento de Psicología de la Universidad de California en La Jolla. Pueden encontrarse aquí.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo El tono absoluto y las lenguas tonales se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Nuevo arte parietal en Arbil V
En el marco del Proyecto de prospecciones arqueológicas para la localización de nuevos vestigios de arte parietal, dirigido por María José Iriarte (UPV/EHU-IKERBASQUE) y financiado por la Diputación Foral de Gipuzkoa, los miembros de Antxieta Jakintza Taldea de Azpeitia han logrado un nuevo hallazgo en el monte Arbil.
En esta ocasión se ha realizado en el término municipal de Deba; concretamente en la cueva Arbil V, que mira hacia el valle de Lastur.
La cueva se conocía desde hace varias décadas, cuando fue catalogada por el grupo Munibe de Azkoitia. Pero ha sido gracias al impulso de este renovado interés por el arte parietal y a las nuevas referencias con las que se están enfocando las investigaciones en la actualidad, cuando el equipo de la sociedad Antxieta de Azpeitia ha conseguido reconocer las líneas grabadas en la roca que corresponden al menos a tres animales.
La cueva catalogada bajo los nombres de Arbil V y Sustraixako kobea, en el valle de Lastur (Deba) ha proporcionado grabados figurativos, de probable cronología magdaleniense. Aunque la cueva tiene importantes proporciones y los trabajos de prospección en su interior son aún preliminares, ya han sido determinadas dos figuras animales completas y porciones de otras dos. Las figuras completas se refieren a una cierva y a otro cérvido macho, probablemente un reno. Se trata del cuarto hallazgo de arte parietal consecutivo del grupo Antxieta, desde el arranque de este proyecto en 2015 (Danbolinzulo, Erlaitz, Astui gaiña y ahora, Arbil V/ Sustraixako kobea).”
El hallazgo se produjo el 26 de marzo. Ese domingo miembros del grupo de arqueología Antxieta (Jose Inaxio Arrieta, Jabier Lazkano, Iñigo Olarte, Javier Maiz, Iñigo Arizaga, Aitor Suinaga, Andres Maiz, Xabier Azkoitia, Igone Elejalde y Ion Uranga) visitaron la cueva y encontraron varias pinturas que podían ser del del Paleolítico. Unos días más tarde, el 9 de abril, especialistas en arte paleolítico (Blanca Ochoa eta Irene Vigiola) y arqueologos especialistas en Paleolítico (María José Iriarte y Alvaro Arrizabalaga) visitaron la cueva y confirmaron el hallazgo.
Maria José Tellería ha destacado que esta cueva es la número 11 en la que ha habido hallazgos en Gipuzkoa. La primera fue Altxerri en Aia en 1962 en la que se encontró un conjunto de pinturas importante, sobre todo en lo referido a grabados. Es una hermosa muestra de diferentes especies. En 1969 se encontró la de Ekain. En palabras de Leroi-Gourhan, una cueva con los caballos del Cuaternario más perfectos. En 2006 se encontraron en Praileaitz. Gracias a este hallazgo la cueva ha podido sobrevivir. En 2009, aparecieron huellas rojas en la cueva Astigarraga de Deba. En 2012 en la cueva Aitzbitarte IV se encontró una estalactita cubierta con una mancha roja que avalaba su antigüedad. A finales de 2014 en la cueva Danbolin de Zestoa se encontraron unas imágenes rojas. A principios de 2015, en la cueva Erlaitz de Zestoa se encontró media docena de hermosos grabados. Ese mismo año en las cuevas Aitzbitarte III, V eta IX de Errenteria se encontraron grabados en sus paredes, imágenes de animales realizadas con pedernales o con los dedos manchados de barro
Tellería también ha subrayado la gran labor de los voluntarios en todos estos hallazgos, voluntarios de los grupos Antxieta, de Felix Ugarte o Munibe.
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Nuevo arte parietal en Arbil V se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Grabazio magnetikorako materialen bila
Ordenagailuetako grabazio magnetikoko memoria sistemak (diska gogorrak, USBak) hobetzeko material berriak bilatzea, baita material horien propietate magnetiko, fisiko, elektriko eta elastikoak ikertzea izan da ikerketaren helburua.
Tamaina txikiko gailuen eskari gero eta handiagoaren ondorioz, oso garrantzitsua bihurtu da eskala nanometrikoko material berriak ikertu eta garatzea. Materialak eskala nanometrikora murrizten direnean, fenomeno edo propietate fisiko berriak azaltzen dira, eragin handikoak bai zientzian bai industrian. Materialaren kristal egitura aldatuz, adibidez, propietate magnetikoak alda daitezke eta lortu nahi diren teknologikoetarako doitu.
Eskala nanometrikoko lodiera (1-2 nm eta 100 nm bitartekoak) eta kristal egitura perfektua duten materialak erabili ditu Lorenzo Fallarinok. Kromozko, ruteniozko eta platinozko kobalto aleazioak eta kromo oxidozko aleazioak silizio olata fin-finen gainean ezarri eta propietate magnetikoak ikertu ditu. Diseinua aldatuz joan da materialak etorkizun handiko grabazio magnetikoko tekniketan erabiltzeko modukoak izan arte.
Curieren tenperatura manipulatzeko aukera ematen duten aleazioak fabrikatzea lortu du ikertzaileak. Material ferromagnetikoak ferromagnetiko izateari uzten dion tenperaturari esaten zaio Curieren tenperatura, iman gisa jokatzen duten materialak iman izateari uzten dioten tenperatura, alegia.
Magnetismoa ikertzeko eta etorkizuneko aplikazio teknologikoetarako aukera handiak zabaltzen dituzten aleazio magnetikozko film finak eta geruza anitzeko filmak diseinatu, ekoitzi eta karakterizatu ditu ikertzaileak; laser bidezko tokiko berokuntzan oinarritutako grabazio magnetikoko teknika berrietan erabiltzeko material berriak.
Transferentzia teknologikoaLorenzo Fallarinok adierazi duenez, “Oso zaila da ikerketa honen emaitzak epe laburrean ikustea memoria magnetikoetan aplikatuta, baina material berri hauek aukera handiak zabaltzen dituzte laser bidezko tokiko berokuntza erabiltzen duten grabazio magnetikoko teknika berriak garatzeko”. Horretaz gain, magnetismoaren oinarrizko fisika ikertzeko oso aproposak dira material hauek.
Transferentzia teknologikoak garrantzi handia du. Ezaugarri berritzaileak dituzten material berriak bilatzea da zientziaren oinarri nagusietako bat. Berehalako helburu praktikorik gabe gauzatzen da oinarrizko ikerketa, naturak berak edo errealitateak berez dituzten oinarrizko printzipioen inguruko jakintza areagotzeko xedeari jarraituz.
Erreferentzia bibliografikoa:
L. Fallarino, B. J. Kirby, M. Pancaldi, P. Riego, A. L. Balk, C. W. Miller, P. Vavassori, A. Berger. Magnetic properties of epitaxial CoCr films with depth-dependent exchange-coupling profiles Physical Review B (Vol.95, No.13). April 2017.. DOI: DOI: 10.1103/PhysRevB.95.134445.
Iturria:
UPV/EHUko komunikazio bulegoa: Grabazio magnetikoko teknika berriak
The post Grabazio magnetikorako materialen bila appeared first on Zientzia Kaiera.
Hesiré o las proporciones en el arte antes del número áureo
Número áureo, divina proporción, razón dorada… son términos inevitablemente vinculados a las proporciones en el mundo artístico. Todos ellos (representados por la letra φ (phi)) se asocian al número irracional (un número de infinitos decimales) que se expresa mediante la siguiente ecuación:
Pero tampoco es que este número nos diga mucho, así que vayamos con la interpretación geométrica, que resulta mucho más visual:
Se cumple la divina proporción cuando, al dividir un segmento (c) en dos partes (a y b), la relación entre el segmento original (c) y la parte más larga (a) es la misma que entre la parte más larga (a) y la más corta (b). Dicho de otro modo, cuando:
A estas proporciones se les atribuye un valor estético por lo que han sido aplicadas en obras artísticas de todo tipo: desde cuadros renacentistas hasta el diseño de logotipos* (Imagen 2).
Así que a nadie le sorprenderá que haya un software para trabajar con estas dimensiones o una página web exclusivamente dedicada al número áureo. Pero qué queréis que os diga, la cosa se nos ha ido un poco de las manos. Parece que ahora toda composición artística que se precie se adapta a la divina proporción o a la espiral áurea (la que se consigue mediante la combinación de rectángulos áureos). Hay una anécdota que refleja ese hecho a las mil maravillas. Nada más empezar 2016 un periodista comentó en twitter una peculiar fotografía que había dejado la celebración de la entrada en el nuevo año: “Suceden tantas cosas en esa imagen. Como en una hermosa pintura”. Enseguida el mensaje se hizo viral y comenzaron las parodias sobre la fotografía en cuestión. Entre ellas no podía faltar una referente a la espiral áurea.
Aunque, hablando de parodias sobre el número de oro, la que más me ha llamado la atención por lo bien que se adapta a la espiral áurea es la realizada sobre la cabeza del todopoderoso presidente de los Estados Unidos. Dejo en vuestras manos decidir si en este caso la composición es artísticamente deseable.
Pero este artículo no trata sobre el número áureo, del que ya se ha hablado mucho (aquí o aquí) desde que Euclides lo mencionase por primera vez en el s. III a.e.c. Aunque se supone que ya se empleó con anterioridad en la composición del Partenón (s. V a.e.c.) o, incluso, en las pirámides de Guiza (s. XXVI a.e.c.). Y precisamente hoy vamos a viajar a la tierra de las pirámides para conocer un sistema de proporciones más antiguo y mucho más “racional”. Lo haremos de la mano de un personaje que, pese a no haber trascendido al gran público, ocupa un puesto de honor en la historia del arte egipcio: el escriba real Hesiré.
Nos remontamos a la III dinastía del Egipto faraónico, allá por el 2650 a.e.c. cuando las famosas pirámides que acabamos de mencionar ni siquiera se habían empezado a construir. Muy cerca de donde unos años después se erigirían, en la necrópolis real de Saqqara, ya había sucedido un hito: se había establecido el canon egipcio. En mayor o menor medida todos estamos familiarizados con dicho canon. ¿Quién no ha visto alguna vez una imagen del estilo de la que os muestro a continuación?
La gran mayoría de las imágenes del Antiguo Egipto siguen unos principios compositivos idénticos. Por una parte, obedecen a lo que se conoce como principio de frontalidad: la cabeza y las extremidades se representan de perfil mientras que el torso aparece de frente. Si los pensáis, dicha posición es anatómicamente imposible a menos que fuesen expertos contorsionistas. Pero eso no era mayor problema, ya que se trata de una representación simbólica, muy alejada, por ejemplo, de las esculturas griegas que intentan reflejar la anatomía humana. Por otra parte, y la que más nos interesa en este artículo, todas estas figuras siguen un canon de proporciones basado en la aplicación matemática.
Estos principios compositivos perdurarían durante dos milenios en el arte egipcio sin apenas alteraciones. Casi nada. Pero, ¿cómo fue eso posible? Para entenderlo debemos abstraernos de nuestro concepto de arte. El arte egipcio estaba completamente supeditado a la experiencia religiosa y su misión era reflejar la inalterabilidad del orden divino. De hecho, ni siquiera existía el concepto de artista. Se trataba de un arte colectivo en el que cada artesano tenía una función (esculpir o pintar, por ejemplo). Tampoco existía el concepto de belleza que podemos tener hoy en día; ésta estaba asociada a la pericia en ejecutar las normas establecidas. De ahí que el canon se perpetuase de generación en generación con algunas excepciones como los convulsos periodos intermedios o el periodo Amarnense (durante el cual el faraón Akhenatón quiso establecer un sistema monoteísta; así que ya vemos que el arte seguía relacionado con el ámbito religioso). La creación del canon egipcio fue posiblemente un proceso paulatino que se asentó, como decíamos antes, en la III dinastía. Y ahí es donde entra en escena Hesiré o, mejor dicho, Hesiré y sus puños.
Allá por 1861 el arqueólogo Auguste Mariette estaba explorando la mastaba (tipo de enterramiento precursor de las pirámides) de dicho alto cargo del faraón en la necrópolis de Saqqara. Ante sus ojos apareció una fabulosa galería llena de pinturas y unos relieves que pasarían a la historia. Trabajados en madera de cedro de color rojizo, seis de ellos han sobrevivido hasta nuestros días en buenas condiciones pese a tratarse de un material perecedero. Alguna ventaja tenía que tener permanecer enterrado en el desierto.
Los relieves muestran al escriba real (uno de los tantos cargos que ostentaba) en diferentes etapas de su vida. En el que os muestro en la Imagen 7 aparece con una peluca corta antes una mesa de ofrendas mientras sujeta con la mano izquierda un bastón y sus útiles de escriba. En otros casos porta el Kherep (Imagen 8), un distintivo de poder que vuelve a resaltar la importancia del simbolismo en el arte egipcio. Pues bien, serán estos bajorrelieves los que nos ayuden a comprender el sistema de proporciones del arte egipcio.
Los egipcios usaban un sistema de cuadriculas en el que cada parte del cuerpo ocupaba un número diferente de cuadrados. Antes os decía que los puños tendrían una gran importancia en esta historia y es que cada cuadrado era del tamaño de un puño*. Partiendo de esa base, cada figura de pie tendría una altura de 18 cuadrados desde los pies hasta el nacimiento del pelo. Alguien podría pensar que lo lógico hubiese sido cubrir toda la altura de la figura, pero en el caso de que portase algún objeto en la cabeza las medidas resultarían más complicadas (¡lo tenían todo pensado estos egipcios!). Siguiendo con la misma referencia, las rodillas acabarían con el sexto cuadrado y el resto del cuerpo ocuparía 10 unidades, dejando las últimas dos para cubrir el cuello y la cabeza. En la Imagen 8 podéis ver cómo se cumplen esas propiedades en uno de los relieves. Si os fijáis, la cuadricula sirve para localizar y dar tamaño a diferentes partes del cuerpo: el ombligo está a la altura del undécimo cuadrado, los pies de Hesiré ocupan tres espacios, etc. Pues bien, este sistema permitía a los egipcios mantener un sistema de proporciones constantes en una composición por muchos personajes que apareciesen (a no ser que el simbolismo exigiese un cambio, como cuando el faraón se representaba de mayor tamaño para dejar constancia de su poder).
Tras ver la imagen anterior podemos comprender por qué las composiciones egipcias resultan tan “cuadriculadas”. Pero, ¿qué sucede cuando el personaje no está de pie? La verdad es que el sistema se aplica de una manera muy similar en las figuras sedantes, sólo que, obviamente, la altura es menor: 14 cuadrados. En todo caso, el único módulo que sufre cambios es el que va desde los hombros a las rodillas, que pasa a estar compuesto por seis cuadrados. Esto resulta lógico si tenemos en cuenta que es la parte del cuerpo que se dobla con el cambio de posición. Así, en la Imagen 9 podéis observar como el Hesiré que os mostraba ante la mesa de ofrendas cumple rigurosamente esta norma. Esto no supone ningún cambio en el resto de proporciones anatómicas, ya que el tamaño absoluto de la figura no varía, simplemente hay cuatro cuadrados que ocupan un espacio horizontal en lugar de vertical.
En este sistema, sencillo a la par que elegante, los egipcios encontraron el modo para perpetuar su canon artístico durante siglos, en un periodo que se prolongó entre las dinastías III (s. XXVII a.e.c) y la dinastía XXVI (s. VII a.e.c) donde las figuras se estilizaron y su altura superó los veinte cuadrados. Así, aunque Hesiré no haya logrado la fama de sus paisanos Nefertiti o Tutankamón, su nombre ocupa un puesto de honor en la historia del arte egipcio.
Notas:
(1): Como pudimos ver hace unos días en el curso M de Matemáticas que organizan cada verano Marta Macho y Raúl Ibáñez (fieles colaboradores del Cuaderno en la sección Matemoción), y a los que pido disculpas por el intrusismo de esta entrada.
(2): El sistema de puños propuesto por el egiptólogo Erik Iversen fue replanteado por Gay Robins y más recientemente por John Legon. Según este último autor la cuadricula en la que se basa el canon de proporciones surgiría de dividir el cuerpo en tres partes iguales (6 cuadrados) de las que luego se realizarían otras subdivisiones. En cualquier caso, dado que el objetivo de este artículo es dar a conocer que el arte egipcio empleaba un sistema de proporciones basado en una cuadricula, se ha decidido mantener el concepto de puño.
Para saber más:
Gay Robins “Proportion and Style in Ancient Egyptian Art” University of Texas Press (1993).
Joan Kee “To Scale” Wiley-Blackwell (2016).
Sobre el autor: Oskar González es profesor en la facultad de Ciencia y Tecnología y en la facultad de Bellas Artes de la UPV/EHU.
El artículo Hesiré o las proporciones en el arte antes del número áureo se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Asteon zientzia begi-bistan #165
Lomentospora prolificans (L. prolificans) onddoak orain arte ezagutzen ez zen erresistentzia mekanismo bat daukala frogatu du UPV/EHUko Fungal and Bacterial Biomics ikerketa-taldeak. Onddo mota hau mikroorganismo multierresistentea da eta egun erabiltzen diren onddoen aurkako antibiotikoei erresistentea. Oso infekzio larriak sor ditzake baina immunitate sistema ahula duten pazienteengan. Onddoa voriconazolarekin tratatzean zelula horman gertatzen diren aldaketak behatuta, orain arte ezezaguna zen erresistentzia mekanismoa aurkitu du ikerketak, praktikan onddoari aurre egiteko botika eraginkorrak diseinatzea ahalbidetu dezakeena.
BiologiaEuropako zenbait zootan Triatoma generoko intsektuak erabiltzen ari dira animaliei odol-laginak hartzeko. Horiek ugaztunen odola xurgatuz elikatzen dira. Ezpainen alboetatik edo betazaletatik xurgatzen du gizakien odola lotan daudenean. Horretarako, hozkaren mina gutxitzeko entzima bat erabiltzen du, eta horixe da animalien odola erauzterakoan estresik sortzen ez duen metodo hau erabiltzeko arrazoia.
Txakurrak hain adiskidetsuak izatearen oinarria genetikan datza. Zehazki, GTF2I eta GTF2IRD1 geneak omen dira portaera hori arautzen dutenak. Juanma Gallegok azaltzen du ikerketak jarraitu dituen bideak. Batetik, portaeraren inguruko esperimentuak egin dituzte. Bestetik, analisi genetikoak egin dituzte. Halaber, ikerketa honetan, txakurren eta otsoen arteko desberdintasun genetikoetan sakondu dute.
EkologiaIbaien osasuna neurtzeko markoa berritzeko proposatu du UPV/EHUko ikerketa talde batek. Bertako kidea da Daniel Von Schiller, Biologian doktorea. Hark azaldu duenez, ibaiaren osasuna ezagutzeko egiturari dagozkion alorrak aztertu ohi dira: ibaian bizi diren espezieak, nitratoak uretan duen kontzentrazioa… ez ordea ibaien funtzionamendua. Hortaz, ibaian dauden prozesuak ikertzeko moduetan arreta jarri du. Hau da, eta ikerlariak azaltzen duen moduan, “materia organikoak deskonposatzeko behar duen denbora; ibaiaren metabolismoa, urak duen oxigenoa; hau da, ibaiak nola arnasten duen”.
ArkeologiaRapanuien gizartea loratu zen, baina gero gauzak okertu ziren Pazko uhartean. Adituek ez dute argi hondamendi horren jatorria zein izan zen. Lehen planteamendua ekozidioaren hipotesia da. Jared Diamond geografo eta antropologoak ideia horren alde agertu zen: Pazko uharteko biztanleek gaizki erabili zituzten eskura zituzten baliabide naturalak, eta horrek gosea eta bertakoen amaiera ekarri zituen. Ahalik eta eskulturarik handienak —moai delakoak— sortzeko lehia izan zen adituen arabera hondamendia eragin zuen beste elementu bat. Hilabete honetan argitaratu dute bigarren ideia bat. Anakena eta Ahu Tepeu aztarnategietan aurkitutako arrastoak aztertu dituzte eta hauxe adierazi dute ikertzaileek: “Gure ikerketak frogatu du bertako populazioa modu iraunkorrean bizi zela, eta tokiko ingurumenera ondo egokituta zegoela”.
Emakumeak zientzianBadakizu zein izan zen X izpien difrakzio bidez DNAren lehen irudia lortu zuena? Rosalind Franklin (1920-1958) kristalografoa. Haren DNAren helize bikoitzeko ereduak biologia molekularra eta funtzio genetikoak ulertzeko bidea ireki zuen “51 argazkia”ri esker.
AstronautikaNASAk 500 bideo historiko argitaratuko ditu Youtuben. Batzuk bideo oso teknikoak dira; beste asko, berriz, herritar arruntentzat interesgarriagoak izan daitezke. Kasu guztietan, hala ere, astronautikaren historia bertatik bertara jarraitzeko aukera izango du jendeak.
Zientzia eta arteaZientziak eta arteak bat egiten dute ilustrazio zientifikoaren lanbidea sortzeko. Espainian ez dago formakuntza arauturik diziplina honetan, normalean profesional autodidaktak dira arlo honetan murgiltzen direnak. Graduondokoa eskaini zuen lehen unibertsitatea Estatu Batuetako Johns Hopkins unibertsitatea da, eta 100 urte baino gehiagoko historiarekin, munduko unibertsitate prestigiotsuenen artean dago. Euskal Herriko Unibertsitateko Zientzia eta Teknologia Fakultateak (ZTF-FCT), beste fakultate eta erakunde batzuen laguntzarekin, lehen aldiz eskainiko du Unibertsitateko Espezialista Ilustrazio Zientifikoan berezko titulazioa.
———————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.
———————————————————————–
Egileaz: Uxue Razkin Deiako kazetaria da.
———————————————————————–
The post Asteon zientzia begi-bistan #165 appeared first on Zientzia Kaiera.
Arte & Ciencia: Los objetos también tienen biografía
El arte y la ciencia son dos formas de conocimiento aparentemente alejadas, en gran medida consecuencia de la especialización profesional y la educación compartimentada. Del estudio de esta impostada separación surgió el estereotipo de las dos culturas, las ciencias y las humanidades, para referirnos a esa brecha de conocimiento. La realidad es que la ciencia y el arte sí están conectadas y que ninguna forma de conocimiento es impermeable a otra. Por poner algunos ejemplos: ¿Cómo podría crearse una obra plástica sin las técnicas propiciadas por la ciencia? ¿Cómo podríamos interpretar la elección de materiales?
Estas y otras cuestiones relacionadas furon tratadas por destacados profesionales -artistas, ilustradores, filósofos y científicos- que han puesto el foco en ese difuso trazo que une la ciencia y el arte. El ciclo Ciencia & Arte se desarrolló, bajo la dirección de Deborah García Bello, a lo largo de cuatro jornadas que se celebraron los jueves días 6 y 27 de abril y 11 y 25 de mayo de 2017 en el auditorio del Museo Guggeheim Bilbao.
Esta actividad de la Cátedra de Cultura Científica de la UPV/EHU se enmarca en el programa TopARTE que conmemora el XX Aniversario del Museo Guggenheim Bilbao.
Jornada 4. 1ª Conferencia
Jacobo Castellano es artista plástico: Los objetos también tienen biografía
El conocimiento científico es una herramienta esencial para averiguar el origen de las obras de arte y entender los motivos que provocaron el trabajo de un artista. El análisis de los materiales empleados para realizar una escultura o de la composición de las pinturas presentes en un cuadro nos permiten ahondar en las propias obras, encontrar su sentido y delimitar el ideario del artista. Por otro lado, el arte también ha jugado un papel fundamental como impulsor de progreso en las cuestiones comúnmente atribuidas a las ciencias, como son las medioambientales o las sociales.
''Los objetos también tienen biografía''Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Arte & Ciencia: Los objetos también tienen biografía se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Lehen graduondokoa Ilustrazio Zientifikoaren lanbide ezezagunean
Profesional horiek formakuntza zientifikoa izaten dute gehienetan, eta geroago ilustraziora jo dute, edo bestela zientzietan espezializatutako arte ederretako profesionalak dira. Zientziak eta arteak bat egiten dute ilustrazio zientifikoaren lanbidea sortzeko, eta zientzia modu bisualean bere horretan komunikatzea edo idatzizko nahiz ahozko hitzak laguntzea helburu duen komunikazioaren adarra da.
Normalean profesional autodidaktak dira, izan ere, Espainian ez dago formakuntza arauturik diziplina honetan. Beharbada horixe izango da ilustrazio zientifikoa lanbide ezezagun bihurtzen duten faktore nagusietako bat. Noizean behin museo eta udaletxeek antolatzen dituzten tailer edo ikastaro txikiak aurki daitezke, gehien bat naturarekin erlazionatutakoak, baina horrekin ez da nahikoa diziplina honen osotasun eta konplexutasuna barne hartzeko.
Europan formazio arautuko oso zentro gutxi daude, baina unibertsitate horietan graduondoko mota hau hainbat urtetatik hona eskaintzen da, eta sail ezberdinek sustatzen dute: arte ederrak edo diseinuak, zientziak eta medikuntzak. Graduondokoa eskaini zuen lehen unibertsitatea Estatu Batuetako Johns Hopkins unibertsitatea da, eta 100 urte baino gehiagoko historiarekin, munduko unibertsitate prestigiotsuenen artean dago.
Jakinda komunikazio zientifikoa ezinbestekoa dela zientziak aurrera egin dezan, Euskal Herriko Unibertsitateko Zientzia eta Teknologia Fakultateak (ZTF-FCT), beste fakultate eta erakunde batzuen laguntzarekin, lehen aldiz eskainiko du Unibertsitateko Espezialista Ilustrazio Zientifikoan berezko titulazioa. Graduondokoari buruzko informazio guztia hemen aurki daiteke: Ilustrazio Zientifikoko graduondoa. Unibertsitateko espezialista.
Irakasleek zientzialari, artista, jurista eta komunikatzaile talde anitz eta orekatua osatzen dute, eta nazioartean aintzatetsiak eta sarituak izan dira. Irakasle horiek guztiak oso motibaturik daude graduondoko berri honetan beren onena emateko.
Graduondokoak honako hauen laguntza ekonomikoa du: Bergarako Laboratorium museoa, itsas eta elikadura-berrikuntzan aditu den AZTI-Tecnalia zentroa eta arte ederretako materiala ekoizten duen Colart etxea. Edonola ere, proiektuan parte hartu nahi duten babesle gehiagori irekita dago.
Graduondokoa 2017-18 ikasturtean eskainiko da. Momentu honetan aurre-matrikula garaian dago, eta horrela jarraituko du irailera arte, urrian hasiko baitira klaseak. Graduondokoan izena emateko baldintzak graduatua edo lizentziatua izatea eta marrazketako oinarrizko ezagutzak izatea da. Ikasleen formakuntzaren kalitatea bermatzeko xedeaz, 15 ikasle baino ez dira onartuko ikasturte akademiko bakoitzeko, horrela, irakasleek ikasle bakoitzari jarraipen pertsonalizatua egin ahal izango baitiote.
Graduondokoak 40 kreditu ditu, aurrez aurreko klaseak (34,5 ECTS) eta bukaerako proiektua (4,5 ECTS) barne hartuta. Azken hori erakunde laguntzaileetan egin ahal izango da, besteak beste, museoetan, unibertsitateko sailetan edo zentro teknologikoetan. Bide batez, kolaboratzaile gehiagori parte hartzeko gonbita egiteko aprobetxatu nahi dugu. Proiektu horiek guztiak denontzako probetxugarriak izango dira, bai ikasleentzako, praktika errealak egingo baitituzte, bai erakundeentzako, profesionalak eta lanbidea bera ezagutu eta gozatuko baitituzte.
Graduondoko honetatik aterako da Ilustrazio Zientifikoan titulatutako lehen belaunaldia Espainian. Dena den, harago joateko asmoa du eta beste hauek ere lortu nahi ditu: zientzia bisualaren eremuan erreferente bihurtzea, ilustratzaile zientifikoen arteko lotura bihurtzea eta zientziaren, teknologiaren eta gizartearen zerbitzura dagoen lanbide hori ezagutzera eman eta sustatzea.
Informazio gehiago:
- Ilustrazio Zientifikoko graduondoa. Unibertsitateko espezialista
- Universidad de Aveiro
- Maastricht Academy of Fine Arts and Design
- Liverpool John Moores University
- University of Dundee
- École Supérieure Estienne des Arts Graphiques
- Zurich University of the ArtsScientific Visualization
- Hochschule Luzern Design & Kunst
- Medical Artists’ Education trust
———————————————————————–
Egileaz: Vega Asensio Biologian doktorea da, ilustratzailea eta Ilustrazio Zientifikoko graduondokoaren koordinatzailea.
———————————————————————–
The post Lehen graduondokoa Ilustrazio Zientifikoaren lanbide ezezagunean appeared first on Zientzia Kaiera.
Lo que Yellow Mellow oculta sobre los chemtrails
Uno de los últimos vídeos de Yellow Mellow trata de las cinco teorías conspirativas que DAN MÁS MIEDO. De los chemtrails a los illuminati, da un repaso muy divertido y loco a unas cuantas historias alternativas a los hechos. En un minuto, Yellow Mellow nos cuenta lo esencial sobre chemtrails: la explicación racional, la explicación alternativa y qué sentido tendría la conspiración chemtrailiana. Podéis ver el vídeo en este enlace y pasar un buen rato con esta maravillosa chica.
Desde el principio nos hace esta advertencia que transcribo: «Los hechos que os voy a contar son teorías conspirativas, ¡teorías! No estoy diciendo, en ningún momento, que yo me las crea. Y tampoco estoy diciendo, en ningún momento, que estos sean hechos reales».
Nos lo cuenta de la siguiente manera:
«Los chemtrails son esos rastros que dejan los aviones por el cielo. A veces no hay ni uno. A veces dos o tres. A veces hay como quince en muy poco espacio. La explicación oficial que se da a esto es que simplemente son rastros de los aviones comerciales que pasan por el cielo a diario. Hay rutas en las que pasan más aviones que en otras. Así que esa es la explicación. No hay nada raro. No pasa nada.
Pero el dato alternativo es que esos rastros que dejan los aviones son gases químicos que dejan ir algunos aviones que no son comerciales para que vayan cayendo lentamente sobre la población y que provocan enfermedades. Básicamente la teoría dice que nos están gaseando. Estos gases pueden provocar desde ligeros dolores de cabeza, refriados comunes, hasta cáncer —frunce el ceño—.
¿Por qué se dice esto? ¿Cuál es la razón? Pues, ¿tú qué haces cuando estás enfermo? Vas al médico, el médico te receta medicina, vas a la farmacia a comprar esa medicina. Si no estuvieses enfermo, ese proceso no lo harías y, por tanto, no irías a la farmacia a gastarte el dinero.
Pues bien. Se dice que estos gaseamientos por parte de organizaciones potentes, gobiernos, sociedades de las que hablaremos más adelante —se refiere a los illuminati—, ¿por qué están haciendo esto? Pues para beneficiar a la industria farmacéutica. Nos están enfermando para enriquecer a la industria farmacéutica. Esto es lo que cuenta la teoría».
Este vídeo me hizo recordar el artículo de John Cook, «La teoría de la inoculación: usar la desinformación para combatir la desinformación» que fue publicado en este medio. Una de las cosas que está haciendo Yellow Mellow —imagino que intuitivamente, aunque no lo sé— es seguir la estrategia de John Cook para vacunarnos contra la desinformación.
John Cook dice en su trabajo que, cuando nos exponemos a una forma débil de un virus, creamos inmunidad al virus real, y esto lo aplica al conocimiento. Cuando estamos expuestos a una “forma débil de desinformación”, esto nos ayuda a crear resistencia para que no seamos influenciados por la desinformación real. Para ello son necesarios dos elementos, precisamente los mismos que Yellow Mellow nos ofrece en este vídeo: Primero, incluye una advertencia explícita sobre el peligro de ser engañado por la desinformación. En segundo lugar, proporciona contraargumentos que explican los fallos en esa desinformación.
De esta manera, los hechos alternativos que Yellow Mellow nos cuenta a continuación, pasan a resultarnos más rocambolescos, incluso risibles. También ayuda que utilice otra poderosa herramienta que domina a la perfección: el humor.
Los aviones obtienen la energía para desplazarse de la quema de combustibles fósiles. Cuando se produce la combustión, expulsan un gas que está muy caliente que contiene vapor de agua y que se condensa rápidamente cuando entra en contacto con el aire frío que hay a esas alturas. Por eso dejan tras de sí esas estelas llamadas contrails —no chemtrails—. Estas estelas no siempre se pueden observar, ya que este fenómeno de condensación depende de las condiciones atmosféricas: presión, temperatura y humedad. De hecho, que persistan esas estelas significa que en las capas altas de la atmósfera está entrando humedad y, previsiblemente, eso implica que esa humedad viene de alguna borrasca. Si estamos en otoño o invierno, son indicativo de que al día siguiente es probable que llueva.
Yellow Mellow nos explica la justificación más inverosímil de todas las posibles: envenenarnos para enriquecer a la industria farmacéutica. Pero existen otras muchas razones, igual de inverosímiles, con cierto grado de relación con la realidad. Una de ellas nos dice que los chemtrails se utilizan para manipular el clima. Es decir, que en lugar de pensar que la persistencia de las estelas es consecuencia de la humedad atmosférica o de la entrada de una borrasca inminente, se piensa lo contrario, que las estelas son las que provocan las lluvias, no la consecuencia de estas.
En la naturaleza, las nubes se forman cuando el vapor de agua superenfriado se condensa y luego se congela en partículas, llamadas núcleos de hielo, hechas de polvo e incluso de bacterias. Las gotitas de agua pura no pueden formar un núcleo de cristal de hielo hasta que la temperatura descienda a -40 ° C. Sin embargo, si las nubes contienen partículas de aerosol, las moléculas de agua pueden utilizar las superficies sólidas de estas semillas para organizarse en una forma cristalina a temperaturas mucho más cálidas, de -20 a -5 ° C.
En 1971, el científico atmosférico Bernard Vonnegut, publicó un artículo en la prestigiosa revista Nature sobre cómo sembrar nubes empleando diferentes sales de plata, como bromuro y yoduro de plata. El yoduro de plata es un buen agente de nucleación debido a que su red cristalina hexagonal es casi idéntica a la red que las moléculas de agua forman en el hielo y los copos de nieve. Las moléculas de agua adyacentes a la sal de plata tienden a pegarse (nucleación), cristalizando a su alrededor dando lugar a la formación de partículas de hielo. Si hay crecimiento suficiente, las partículas se vuelven lo suficientemente pesadas como para caer en forma de nieve (o, si se fusionan, en forma de lluvia). De otro modo no producen precipitación.
Teóricamente esto tiene sentido, pero todavía no sabemos lo suficiente sobre las estructuras del agua cuando se va produciendo su cristalización como hielo, particularmente cuando este proceso ocurre en las superficies de otros materiales como el yoduro de plata. La nucleación de hielo es difícil de probar experimentalmente porque los actuales instrumentos no producen imágenes claras de moléculas individuales a medida que se congelan. No se conocen los procesos y es muy complicado estimar qué parte de las precipitaciones son provocadas artificialmente y qué parte se producirían de forma natural. Las estimaciones actuales más optimistas hablan del aumento de un 10% en las precipitaciones de cada nube sembrada artificialmente.
La realidad es que hacer que llueva es, de momento, más magia que ciencia. Es necesario seguir investigando para entender si la práctica funciona, cómo optimizarla y cuáles serían sus impactos ambientales, sociales y políticos.
Quizá los chemtrails que los illuminati tratan de ocultarnos, y con los que de paso nos enferman, sean los verdaderos responsables del cambio climático. Yo no lo creo. Yellow Mellow me ha vacunado contra la desinformación.
Este post ha sido realizado por Deborah García Bello (@Deborahciencia) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.
El artículo Lo que Yellow Mellow oculta sobre los chemtrails se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas: