Cuaderno de Cultura Científica jarioa-rako harpidetza egin
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Eguneratua: duela ordu 1 8 min

Retrodiagnósticos

Ig, 2017-08-20 11:59

Goya atendido por el doctor Arrieta (Francisco de Goya, 1820). La cartela de abajo reza (sic): “Goya agradecido, á su amigo Arrieta: por el acierto y esmero con qe le salvo la vida en su aguda y / peligrosa enfermedad, padecida á fines del año 1819, a los setenta y tres de su edad. Lo pintó en 1820” . Cuadro del Instituto de Arte de Mineápolis.

Acertar con los pronósticos o, lo que viene a ser lo mismo, predecir con éxito lo que ocurrirá no es fácil. Y en muchas ocasiones, tampoco lo es acertar con los diagnósticos. La dificultad aumenta cuando de lo que se trata es de indagar acerca de las enfermedades de personas desaparecidas hace tiempo. Eso es lo que intentan hacer en la Historical Clinicopathological Conference, que se celebra todos los años en la Facultad de Medicina de la Universidad de Maryland (EEUU), con personalidades de las que se sabe que sufrieron alguna enfermedad y se dispone de alguna información acerca de sus síntomas.

Cada año se escoge una figura histórica y se propone a un especialista que realice un diagnóstico a partir de la información disponible. Este año le ha tocado a Goya, y la especialista que ha tratado de diagnosticar su enfermedad ha sido Ronna Hertzano, experta en audición. Goya cayó enfermo de “cólico” en 1792 a la edad de 46 años. Un año más tarde una enfermedad misteriosa le obligó a guardar cama. Tenía dificultades de visión, pérdida de equilibrio, fuertes dolores de cabeza y pérdida de audición. Necesitó dos años para recuperarse, al cabo de los cuales quedó sordo para el resto de su vida.

La doctora Hertzano barajó la posibilidad de que se tratase de una intoxicación con plomo, pues lo utilizó con abundancia para pintar, pero en ese caso, los síntomas se hubieran prolongado en el tiempo, como le ocurrió con la sordera. Más probable que haberse intoxicado con plomo, Goya pudo haber contraído la sífilis, pero esta enfermedad muestra síntomas de deterioro neurológico progresivo a lo largo de muchos años, y no hay datos que avalen ese deterioro. Ronna Hertzano se ha inclinado finalmente por una enfermedad autoinmune, el síndrome de Susac. Se trata de una enfermedad muy rara que se caracteriza porque el paciente sufre alucinaciones, parálisis y pérdida de audición. El sistema inmune ataca pequeños vasos sanguíneos encefálicos y el daño puede extenderse a ojos y oídos. No suele durar más de tres años.

En la Historical Clinicopathological Conference se han diagnosticado otros personajes célebres. Lenin pudo haber muerto a causa de una ateroesclerosis cerebral acelerada. Darwin, quien padeció durante buena parte de su vida una molesta enfermedad gastrointestinal, pudo haber sufrido el denominado síndrome de vómitos cíclicos; se trata de una enfermedad de causa desconocida aunque con una cierta componente genética y que no tiene cura, pero cuyos síntomas pueden ser tratados en la actualidad. Poe pudo haber muerto de rabia o, quizás, de delirium tremens. Es probable que la enfermera Florence Nightingale sufriese un trastorno bipolar con rasgos psicóticos o, alternativamente, síndrome de estrés postraumático; la enfermedad se le declaró con 35 años cuando se encontraba en Turquía trabajando como enfermera del ejército británico en condiciones terribles. Mozart quizás falleció por culpa de una fiebre reumática aguda. Es muy posible que Beethoven sufriera sífilis, aunque también pudo haberse envenenado con plomo. Y Pericles pudo haber muerto de tifus. Estos son algunos de los personajes retrodiagnosticados en Maryland.

Tratar de diagnosticar una enfermedad de forma retrospectiva, como se hace en este congreso no deja de ser un divertimiento. Pero tiene su interés. Por un lado, puede arrojar luz acerca de las causas de la muerte de personajes históricos relevantes, lo que en algunos casos tiene importancia histórica. Pero tiene también interés científico, ya que se trata de un ejercicio sometido al escrutinio del resto de especialistas y, muy probablemente, sirve para mejorar las técnicas de diagnóstico que se aplican a los enfermos de hoy. Es, cuando menos, un espléndido ejercicio docente.

—————————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

Una versión anterior de este artículo fue publicada en el diario Deia el 4 de junio de 2017.

El artículo Retrodiagnósticos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La ecología de una enfermedad
  2. Sin atajos frente al cáncer
  3. Parkinsonia parkinsoni
Kategoriak: Zientzia

Ciencia a presión: Científicos que avalan patrañas

La, 2017-08-19 11:59

La expresión publish or perish (publica o perece) es de sobra conocida en el ámbito científico. Quiere expresar la importancia que tienen las publicaciones en los currículos del personal investigador. En ciencia no basta con hacer observaciones, obtener unos resultados y derivar conclusiones. Hay, además, que hacerlo público y, a poder ser, en medios de la máxima difusión internacional. La ciencia que no se da a conocer, que no se publica, no existe. El problema es que de eso, precisamente, depende el éxito profesional de los investigadores, sus posibilidades de estabilización y de promoción. De ahí la conocida expresión del principio.

El mundo de la comunicación tiene también sus normas. En comunicación se trata de que lo que se publica sea consumido. De la misma forma que la ciencia que no se publica no existe, en comunicación tampoco existen los contenidos que no se consumen: o sea, no existen los artículos que no se leen, los programas de radio que no se oyen, los de televisión que no se ven o los sitios web que no se visitan. En comunicación valdría decir “sé visto, oído o leído, o perece”.

Ambas esferas tienen ahí un interesante punto en común. Y por supuesto, en comunicación o difusión científica el ámbito de confluencia se aprecia en mayor medida aún. Confluyen aquí ambas necesidades, la de hacer públicos los resultados de investigación y, además, conseguir que lleguen a cuantas más personas mejor.

El problema es que la presión por publicar y por tener impacto comunicativo puede conducir tanto a unos como a otros profesionales, a adoptar comportamientos deshonestos, contrarios a la ética profesional e, incluso, a desvirtuar completamente el fin de la ciencia y de su traslación al conjunto del cuerpo social. Y también puede conducir, y de hecho ha conducido, a que se haya configurado un sistema de publicaciones científicas con patologías.

De todo esto se trató el pasado 31 de marzo en “Producir o perecer: ciencia a presión”, el seminario que organizarono conjuntamente la Asociación Española de Comunicación Científica y la Cátedra de Cultura Científica de la UPV/EHU.

1ª Conferencia

José Manuel López Nicolás, profesor de la Universidad de Murcia y divulgador científico: Científicos que avalan patrañas

Científicos que avalan patrañas

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Ciencia a presión: Científicos que avalan patrañas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Curso de verano “La ciencia de nuestras vidas”: Cuando la música era ciencia, por Almudena M. Castro
  2. Curso de verano “La ciencia de nuestras vidas”: Arte, literatura y ciencia, por Gustavo A. Schwartz
  3. Curso de verano “La ciencia de nuestras vidas”: La ciencia del habla, por Manuel Carreiras
Kategoriak: Zientzia

Los límites del Hyperloop

Or, 2017-08-18 12:00

Durante el pasado mes de julio hemos asistido a las primeras pruebas integradas de un sistema hyperloop en las instalaciones de Hyperloop One —la empresa más destacada de las que compiten por poner en marcha este sistema— en Las Vegas, Nevada. Pero ¿qué es un hyperloop? Es difícil no estar al menos vagamente familiarizado con la propuesta de un «quinto modo de transporte» realizada por el magnate Elon Musk, conocido por SpaceX y Tesla, en un white paper de 2013 [1] dado el tratamiento masivo que cualquier avance técnico o propuesta relacionada con el asunto tiene en todos los medios de comunicación.

En breve: un hyperloop es un sistema de cápsulas de transporte que se desplazan sin contacto a velocidades cercanas a la del sonido a través de un tubo en el que se ha evacuado el aire hasta llegar a condiciones de casi vacío, y que aceleran mediante motores de inducción lineales ubicados a intervalos regulares dentro de los tubos. Un sistema así puede sorprender por lo atrevido de la propuesta, pero una lectura rápida de las especificaciones técnicas y las estimaciones de costes avanzadas por Musk levanta, legítimamente, más de una ceja en la comunidad de expertos en transporte [2][3]. Más allá de análisis teóricos, los propios progresos de la empresa que más ha avanzado en la implementación física del concepto desvelan cuáles serán los problemas a los que tendrá que enfrentarse en un futuro inmediato y que tienen el potencial de dar al traste con todo el proyecto.

Durante la madrugada del sábado 29 de julio, Hyperloop One realizó su primera prueba de «fase 2» [4]. La cápsula de prueba denominada XP-1 recorrió un total de 437 metros en un tubo evacuado a una presión inferior a 100 Pa (la milésima parte de la presión atmosférica), alcanzando en el proceso una velocidad máxima de 310 km/h. El motor de inducción lineal utilizó para ello un estátor de 300 metros de longitud, de donde podemos deducir algún parámetro más de la prueba aplicando algo de cinemática elemental.

Suponiendo que la cápsula partió del reposo y que la aceleración impartida fue constante, resulta que debió estar sujeta a 12,36 m/s², unos 1,26 g. La frenada debió ser algo más intensa, de 2,76 g: afortunadamente, la XP-1 no es más que un chasis cubierto con una estructura hueca de fibra de vidrio [5]. Unos potenciales pasajeros habrían encontrado el viaje extremadamente poco confortable. No hay que olvidar, sin embargo, que la limitación de longitud que presenta el tramo de pruebas de Hyperloop One en Las Vegas prácticamente obliga a sostener aceleraciones y frenadas de semejante intensidad si se desea probar el sistema a cualquier velocidad significativa.

Vista frontal de la sección del tubo de pruebas de Hyperloop One. Fuente: Hyperloop One

Hyperloop One es un tanto parca ofreciendo datos técnicos relacionados con sus pruebas, aunque un poco más de estudio sobre el vídeo y los materiales de prensa publicados deberían permitir hacer alguna inferencia más allá de la cinemática del sistema. Será importante conocer con alguna precisión las dimensiones de la cápsula: en la documentación disponible se afirma que mide 8,69 metros de longitud y 2,71 metros de altura. Examinando las imágenes disponibles esta altura parece excesiva; además, el parámetro fundamental de la anchura de la cápsula, necesario para calcular su sección y sus características aerodinámicas, no aparece por ninguna parte. Un pequeño trabajo de estimación sobre el vídeo de la prueba permite conjeturar que el diámetro interior del tubo debe rondar los 4 metros, mientras que la cápsula misma debería tener una anchura de alrededor de 3 metros.

La altura del carenado parece no superar los 1,80 metros a la vista de las fotografías. Tomemos una altura de 2 metros para arrojar una sección transversal aproximada de 6 m²; el tubo mismo tendría una sección interior de 12,67 m². Estos datos son consistentes con la intención de Hyperloop One de centrarse en el segundo de los diseños propuestos por Musk: el hyperloop de mercancías —aunque Musk lo concibió como un medio mixto de viajeros y carga que podría transportar vehículos como (naturalmente) un Tesla S. El primer diseño, de menor sección y supuestamente de construcción más barata, sería prácticamente un homoducto [6] que lanzaría a un pequeño grupo de personas reclinadas en el interior de un tubo de 1,35 por 1,10 metros como si fueran fajos de billetes en un supermercado. En cualquier caso, la incertidumbre propia de las medidas nos permite estimar que la cápsula ocupa alrededor de la mitad de la superficie disponible en su desplazamiento. ¿Por qué es esto importante?

El límite de Kantrowitz

El mismo equipo de Elon Musk, en la redacción del artículo original que sirvió como pistoletazo de salida para la definición del hyperloop, resaltó un parámetro clave de dinámica de gases que resulta limitante en el diseño de un sistema de transporte que debe alcanzar velocidades transónicas —cercanas a las del sonido— en el interior de un tubo, por analogía con el flujo de aire a través de la boca de una turbina en un motor a reacción. Se trata del llamado «límite de Kantrowitz», por Arthur Kantrowitz, ingeniero estadounidense que derivó la expresión de un límite en el flujo de un gas a velocidades transónicas cuando atraviesa una zona en la que se fuerza una reducción en su sección [7]. Como el flujo del gas debe ser continuo, un estrechamiento supone un aumento correspondiente de su velocidad hasta alcanzar la velocidad local del sonido; en este momento el flujo de gas resulta obstruido.

En el hyperloop el límite de Kantrowitz puede visualizarse como un «efecto jeringa». En una jeringa, si se impide el flujo de aire a través de su boquilla, el émbolo no puede seguir avanzando si no es comprimiendo el aire que haya en su interior realizando un esfuerzo inconmensurable con el necesario para hacerlo avanzar en condiciones de flujo normal —es decir, con la boquilla sin tapar. El límite de Kantrowitz es, entonces, la velocidad a la que la sección mínima del hueco entre la cápsula y el tubo provoca un aumento súbito en la resistencia del aire, por poco que sea. De hecho, la ecuación del límite relaciona la razón entre el hueco citado y la sección interna del tubo con la velocidad, y ni siquiera tiene en cuenta la presión local del aire [8].

Las estimaciones que hemos realizado antes sobre las dimensiones de la cápsula XP-1 permiten averiguar la velocidad a la que el sistema debería encontrarse con el límite de Kantrowitz: ocurrirá alrededor de Mach 0,55, o suponiendo una temperatura interior del tubo de 20 °C, a 188 m/s², es decir, 677 kilómetros por hora. Una cifra algo decepcionante teniendo en cuenta que el relato de Hyperloop One de la prueba incluye la siguiente cita textual, un tanto fanfarronesca dadas las condiciones actuales de las instalaciones de ensayo:

With an additional 2000 meters of stator, we would have hit 1100 km per hour […]

Es decir, 2 kilómetros adicionales de aceleración habrían permitido alcanzar los 1100 km/h. Esto, simplemente, no es cierto salvo que el sistema disponga de potencia suficiente para arrastrar la cápsula más allá del pico de resistencia impuesto por la dinámica de gases, algo que sin duda dispararía el consumo energético de todo el conjunto mucho más allá de lo previsto, afectando de forma crítica a su viabilidad.

El artículo original de Musk discutió —correctamente— la pertinencia del límite de Kantrowitz en el sistema del hyperloop. Las velocidades previstas tanto por Musk como por Hyperloop One para el sistema se encuentran en el entorno de Mach 0,9 (aproximadamente 1100 km/h), lo que arroja una relación de sección libre frente a total de 0,99. Es decir, un hyperloop solo podría funcionar a la velocidad objetivo en el interior de un tubo gigantesco respecto a su propia sección transversal, eliminando así toda posible ventaja que la existencia del tubo pudiera conllevar. Pero Musk abordó el problema proponiendo una solución decididamente ingeniosa: ¿por qué no incorporar en el frontal de la cápsula un compresor axial similar al de los turborreactores? De esta forma, sería la propia cápsula la que evacuaría el aire que se fuera encontrando, aumentando así la sección libre en función de la tasa de compresión que proporcionara el sistema. Yendo un paso más allá, Musk y su equipo calcularon que el compresor debería ofrecer una relación de compresión de 20 a 1, y realizaron los cálculos necesarios para aprovechar parte del aire para los sistemas de soporte vital de la cápsula, a la vez que tenía en cuenta el resultado impuesto por la termodinámica para un gas que se comprime: un aumento de su temperatura.

Frontal de la cápsula de Hyperloop One. Obsérvese la ausencia de ningún tipo de estructura. En la fotografía, de izquierda a derecha, Josh Giegel y Shervin Pishevar, cofundadores de Hyperloop One. Fuente: Hyperloop One.

Sin embargo, una simple inspección de la cápsula XP-1 permite descartar que disponga de compresor axial alguno montado en su frontal —mostrado, por otro lado, en prácticamente todas las recreaciones artísticas de la cápsula del hyperloop como la que encabeza este artículo, realizada por Hyperloop One (aunque ya no puede encontrarse en su web). Esta falta de compresor es la que permite calcular con tanta seguridad a qué velocidad encontrará el límite de Kantrowitz; ahora bien, ¿no bastará con instalar un compresor en el frontal para solventar el problema? Después de todo, según afirmó a principios de año el Dirk Ahlborn, director de Hyperloop Transportation Technologies (y competencia de Hyperloop One en la carrera por traer a la realidad los tubos), «la tecnología [para construir un hyperloop] no es la cuestión —ya existe» [9].

Pues bien, esta afirmación es falsa. Hoy por hoy no existe un compresor axial con las características necesarias para equipar una cápsula de hyperloop como la que Hyperloop One está proponiendo, ni de hecho como ningún otro diseño. Los compresores de las turbinas utilizadas en aviación superan con frecuencia las relaciones de compresión de 20:1, pero funcionan con keroseno. Sin duda no es imposible desarrollar una turbina eléctrica que realice esa función, aunque la incógnita sobre su desarrollo obligaría a ser más prudente con los plazos y no realizar afirmaciones como las que acostumbran a hacer los participantes en la «carrera del hyperloop» —y a difundir, sin crítica ni comentario, los medios de comunicación. El consumo eléctrico de este teórico compresor eléctrico es también una incógnita, por más que simples cálculos termodinámicos permitan establecer un límite inferior.

Por esto, el balance energético total del sistema citado por Musk debe ser puesto claramente en duda. Si además tenemos en cuenta que el gasto energético mostrado para los diferentes medios de transporte en la primera figura del paper es clara ¿e intencionadamente? erróneo —en lo que respecta, al menos, al ferrocarril— no es ninguna insensatez dudar, como muchos llevamos tiempo haciéndolo, de la viabilidad del sistema en su conjunto.

Gastos energéticos por trayecto citados por Musk en su paper. Los valores «por pasajero y trayecto» y no por pasajero-kilómetro hacen la gráfica ambigua, aunque suponiendo que se refiere al proyecto de alta velocidad Los Ángeles-San Francisco, un valor más razonable basado en cálculos realistas [10] es al menos cuatro veces inferior (!) al reportado por Musk

¿Tener compresor o no tener compresor?

Llegados a este punto nos encontramos con una disyuntiva: o bien se desarrolla el compresor axial eléctrico necesario para el funcionamiento del sistema tal y como fue diseñado, o no. En el primer caso podríamos, teóricamente, incrementar la velocidad punta del sistema de transporte hasta un régimen cuasi-transónico. Nos encontraríamos entonces con una limitación termodinámica por la que pasa de puntillas el diseño original: como quiera que un gas sujeto a compresión incrementará fuertemente su temperatura, es necesario hacer algo con la energía adicional si no deseamos que la cápsula se transforme en una especie de horno de aire —un horno de aire es un artefacto ideal para hacer patatas fritas con muy poca grasa, pero no muy indicado para transportar personas o mercancías. Musk concibe un sistema de refrigeración basado en agua, un par de intercambiadores térmicos (intercoolers) y varios tanques dispuestos para almacenar agua y vapor, y los dimensiona de acuerdo con sus cálculos.

Un poco más adelante, en una sola línea de la descripción del sistema compresor y como pretendiendo que pase inadvertido (apartado 4.1.3) se afirma lo siguiente:

Water and steam tanks are changed automatically at each stop.

Es decir, «los tanques de agua y vapor son intercambiados [por otros frescos] automáticamente en cada parada». Este curioso y poco reportado (¿por trivial?) paso tiene una cierta reminiscencia a los depósitos de agua de las antiguas locomotoras de vapor. Tiene también el defecto de complicar la logística de la gestión de las cápsulas, algo que para mantener el flujo previsto de pasajeros del sistema tiene que realizarse con total precisión y a gran velocidad al objeto de mantener el flujo de pasajeros previsto que da sentido al sistema en su conjunto. Es, además, una complejidad a añadir al previsto cambio de batería tras cada viaje: como quiera que la cápsula no obtiene energía de la infraestructura como lo haría un tren eléctrico, toda la operación interna del sistema (compresor, intercambiadores de calor, válvulas y sistemas de soporte vital, entre otros) tiene que sustentarse con baterías.

El mismo Musk, a través de Tesla, su empresa automovilística, lleva ya años preconizando la creación de una infraestructura de intercambio rápido de baterías para sus coches eléctricos. Esto tendría la ventaja obvia de sustituir los potenciales largos tiempos de carga de las baterías de los vehículos por un futurista y automático intercambio robotizado. Sin embargo, la creciente disponibilidad de sistemas de carga rápida (y, potencialmente, la introducción de un punto clave de fallo en una conexión eléctrica fundamental en los vehículos, con el consiguiente y previsible descenso en la fiabilidad) ha impedido que esta tecnología se desarrolle [11]. Ni siquiera hay prototipos que puedan adaptarse para su uso en las cápsulas del hyperloop: cuánto menos los habrá si se trata de intercambiar baterías junto con tanques de aire y vapor de agua a presión y sobrecalentado, que deben conectarse no ya mediante un contacto eléctrico, sino mediante válvulas robustas.

La otra opción en la disyuntiva de diseño es olvidar el compresor frontal y operar el sistema a velocidades subsónicas por debajo de Mach 0,5. Un hyperloop que opere a una velocidad punta en el entorno de los 600 km/h podría ser factible, aunque está mucho menos claro que el sistema de transporte resultante sea atractivo en costes de construcción por km, costes de mantenimiento, consumo energético y confort respecto de su competencia más obvia, el tren de alta velocidad. Décadas de desarrollo por parte de empresas y organismos públicos en los EE.UU., Alemania, Japón y China han llevado al despliegue comercial de un sistema presentado por muchos expertos como «el transporte del futuro»: el tren de levitación magnética o maglev.

Hoy hay una línea en el mundo funcionando comercialmente como un tren de levitación magnética de alta velocidad: el Transrapid de Shanghai que cubre una distancia de 30,5 kilómetros en 8 minutos a una velocidad máxima récord de 430 km/h. El resto de los trenes de levitación magnética existentes en el mundo son líneas automáticas de baja o media velocidad, concebidas según el modelo people mover propio de grandes aeropuertos. En el futuro la Chūō Shinkansen [12][13], una línea de mayor alcance y más similar al perfil de transporte al que aspira hyperloop, deberá cubrir el trayecto Tokio-Nagoya-Osaka en algo más de una hora, alcanzando una velocidad punta de 505 kilómetros por hora. Según la planificación actual esta línea —una auténtica maravilla de la ingeniería, con más del 86% del trayecto en su primer tramo ejecutado en túnel— debería poner en servicio su primer tramo (Tokio-Nagoya) en 2027 y el segundo (Nagoya-Osaka) en 2045. No puedo dejar pasar la oportunidad de que estos y no otros son plazos realistas para una infraestructura de transporte puntera; en ningún caso lo son los que se están divulgando desde el entorno de hyperloop y Elon Musk.

De todos modos, la mayoría de expertos en sistemas de transporte opinan que los grandes proyectos de trenes de levitación magnética son «elefantes blancos» [14]: obras realizadas más como forma de señalar el prestigio de un país que como forma práctica de mover grandes flujos de personas entre ubicaciones populosas. El potencial incremento en la velocidad comercial de un sistema maglev requiere de unos costes por kilómetro consecuentemente elevados, que solo se justifican con una demanda de transporte extremadamente intensa. A falta de tales condiciones y con un riesgo tecnológico inexistente, el tren de alta velocidad se erige como la alternativa al transporte privado. Fiable [15] y maduro aunque todavía con margen de mejora, permite conectar entre sí centros urbanos separados por centenares de kilómetros con mínimo impacto ambiental y costes conocidos.

El concepto del hyperloop plantea, además de las aquí reseñadas, muchas otras dudas y limitaciones técnicas no menos importantes desde puntos de vista tecnológicos, operativos y de seguridad. Es por todo esto que puede afirmarse con rotundidad que hyperloop no ocurrirá. Desde luego no en cuatro años, como afirma Hyperloop One. Tampoco en veinte años —el mínimo razonable para un proyecto con tanta tecnología en el aire. Y quizá nunca.

Este post ha sido realizado por Iván Rivera (@Brucknerite) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU

Para saber más

[1] Musk, E. R. et al. (12/08/2013). Hyperloop Alpha. Visitado el 14/08/2017 en http://www.spacex.com/sites/spacex/files/hyperloop_alpha-20130812.pdf.

[2] Bradley, R. (10/05/2016). The Unbelievable Reality of the Impossible Hyperloop, MIT Technology Review. Visitado el 14/08/2017 en https://www.technologyreview.com/s/601417/the-unbelievable-reality-of-the-impossible-hyperloop/.

[3] Konrad, A. (18/11/2016). Leaked Hyperloop One Docs Reveal The Startup Thirsty For Cash As Costs Will Stretch Into Billions, Forbes. Visitado el 14/08/2017 en https://www.forbes.com/sites/alexkonrad/2016/10/25/hyperloop-one-seeks-new-cash-amid-high-costs/#4f78547d125c.

[4] Giegel, J., Pishevar, S. (02/08/2017). Hyperloop Gets More Real Every Time We Test, Hyperloop One. Visitado el 14/08/2017 en https://hyperloop-one.com/blog/hyperloop-gets-more-real-every-time-we-test.

[5] Hyperloop One. (10/08/2017). What Testing Has Taught Us. Visitado el 14/08/2017 en https://hyperloop-one.com/blog/what-testing-has-taught-us.

[6] «Homoducto», del latín homo (ser humano) y ductus (conducto), palabra acuñada por @Mssr_Pecqueux en conversación de Twitter https://twitter.com/brucknerite/status/733684888033984512.

[7] Kantrowitz, A., Coleman, duP. (05/1945). Preliminary Investigation of Supersonic Diffusers. Advance Confidential Report L5D20, National Advisory Committee for Aeronautics. Visitado el 14/08/2017 en http://www.dtic.mil/dtic/tr/fulltext/u2/b184216.pdf.

[8] Una expresión apropiada para el límite de Kantrowitz según se aplica al Hyperloop es:

Donde Abypass es la sección libre, Atube la sección interna total, γ el factor de expansión isentrópica y M el número de Mach del flujo de aire (equivalente a la velocidad de avance de la cápsula).

[9] Carlström, V. (26/01/2017). HTT’s CEO says a hyperloop line will be up and running within three years: “The technology is not the issue – it already exists”, Business Insider Nordic. Visitado el 14/08/2017 en http://nordic.businessinsider.com/htts-ceo-says-a-hyperloop-line-will-be-up-and-running-within-three-years-the-technology-is-not-the-issue–it-already-exists-2017-1/

[10] García Álvarez, A. (01/2008). Consumo de energía y emisiones del tren de alta velocidad en comparación con otros modos. Vía Libre, (515). Visitado el 14/08/2017 en https://www.vialibre-ffe.com/PDF/Comparacion_consumo_AV_otros_modos_VE_1_08.pdf

[11] Korosec, K. (10/06/2015). Tesla’s battery swap program is pretty much dead, Fortune. Visitado el 14/08/2017 en http://fortune.com/2015/06/10/teslas-battery-swap-is-dead/

[12] Chuo Shinkansen Maglev Line. Railway Technology. Visitado el 14/08/2017 en http://www.railway-technology.com/projects/chuo-shinkansen-maglev-line/.

[13] JR Central (2012). The Chuo Shinkansen using the Superconducting Maglev System. JR Central Annual Report. Visitado el 14/08/2017 en http://english.jr-central.co.jp/company/ir/annualreport/_pdf/annualreport2012-05.pdf

[14] Binning, D. (11/02/2008). Maglev – the Great Debate, Railway Technology. Visitado el 14/08/2017 en http://www.railway-technology.com/features/feature1606/

[15] European Commision. (10/02/2017). Rail accident fatalities in the EU. Visitado el 14/08/2017 en http://ec.europa.eu/eurostat/statistics-explained/index.php/Rail_accident_fatalities_in_the_EU

El artículo Los límites del Hyperloop se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. En los límites del frío
  2. Cuántica y relatividad por todas partes
  3. ¿Por qué el Rover Curiosity es más lento que un caracol?
Kategoriak: Zientzia

Más allá de los experimentos

Og, 2017-08-17 11:59

Un error muy extendido, usado también como argumento a favor de algunas pseudociencias y en contra de ciertas teorías como la de la Evolución por Selección Natural, es postular que sólo puede ser conocimiento científico aquel que surge de un experimento. Según esta idea la ‘verdadera ciencia’ es la que sale de los laboratorios, de la comprobación de hipótesis en un entorno controlado con estricta determinación de variables sistemáticamente bien controladas para evitar la interacción. Todas las fuentes de error son localizadas y eliminadas, todas las fuentes de ruido minimizadas y cada variable independiente es determinada y su influencia sobre el fenómeno estudiado es medida; la ciencia es o debe ser como la física o la química, un ejercicio de extrapolación controlada a partir de casos limitados estudiados en laboratorio, porque el único conocimiento real es el que tiene base experimental.

En ocasiones se llega a discutir incluso la posibilidad de generalizar y se intenta argumentar que ninguna ley puede ser considerada verdaderamente científica a no ser que se pueda demostrar que se cumple en todos y cada uno de los casos; es el origen del ‘amimefuncionismo’ tan típico para defender pseudociencias como la homeopatía. En el fondo, y dada la imposibilidad práctica de cumplir esta condición, se trata de negar la existencia misma de la ciencia o el conocimiento: si es imposible generalizar es imposible saber, dado que cada caso concreto es independiente de todos los demás y cualquier abstracción es imposible. Si cada caso es un caso particular nunca podemos saber nada en general y el conocimiento es imposible: nihilismo epistemológico, o la ignorancia disfrazada de escepticismo extremo.

Igual ocurre con la exigencia de que todo conocimiento científico provenga de un experimento, que para empezar niega la consideración de ciencia a cualquier proceso histórico: como no podemos hacer un experimento que repita la historia de la Tierra la Evolución por Selección Natural no es una teoría científica. Como tampoco puede serlo el Big Bang, la tectónica de placas o la secuencia principal de la evolución estelar. En su interpretación más extrema hasta la historia humana sería imposible de conocer, ya que el Imperio Romano, las sociedades paleolíticas o el Siglo de Oro español son imposibles de reproducir experimentalmente. El pasado sería por tanto incognoscible.

Muchos de quienes usan este tipo de argumentos para defender las bondades de una pseudoterapia o como garrota contra Darwin no son conscientes de que en realidad están rechazando la existencia de cualquier posibilidad de conocimiento al hacerlo; tampoco es que a la mayoría de ellos les moleste demasiado. Llevado al extremo el nihilismo epistemológico haría también imposible cosas como perseguir a un criminal: en ausencia de testigos directos o grabaciones no habría ninguna forma de demostrar la comisión de un crimen, ya que ninguna pista sería suficiente prueba. No sólo el conocimiento, sino la misma sociedad dejaría de funcionar si nuestros criterios de confirmación fuesen tan estrictos. La exigencia de experimentación y de estudio caso por caso son formas de rechazo del intelecto mismo; incluso de los elementos clave de la Humanidad, una especie de auto odio en versión intelectual.

El universo que hay ahí fuera es cognoscible; las leyes existen, las generalizaciones son posibles y el experimento es una herramienta más a disposición de quien busca el conocimiento. A partir de casos concretos se pueden crear conclusiones generales que pueden ser útiles en presencia de nuevos casos. Lo ocurrido en el pasado deja pistas en el presente que pueden ser utilizadas para reconstruir lo ocurrido. Las leyes científicas existen y se pueden usar, aunque pocas sean inmutables y eternas. El cosmos es sutil, pero no malicioso, lo que nos permite usar la razón y fiarnos de las conclusiones obtenidas con ella incluso cuando se refieren a un pasado remoto. El avance de la ciencia nos demuestra que podemos conocer el universo y los intentos de rechazar esta idea para defender absurdas teorías no muestran más que la bancarrota intelectual de quienes están dispuestos a rechazar la idea misma de conocimiento sólo por no dar su brazo a torcer.

Sobre el autor: José Cervera (@Retiario) es periodista especializado en ciencia y tecnología y da clases de periodismo digital.

El artículo Más allá de los experimentos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Curso de verano “Las dos culturas y más allá”: El caso de la lingüística y las ciencias cognitivas
  2. Curso de verano “Las dos culturas y más allá”: Ciencia, Sociedad y Desarrollo
  3. Curso de verano “Las dos culturas y más allá”: Ciencia y Poder
Kategoriak: Zientzia

Amelia quiere explorar el desierto

Az, 2017-08-16 11:59

Sí, Amelia quiere explorar el desierto. Ha conseguido el patrocinio de una millonaria que le impone unas cuantas reglas para que agudice su ingenio. Las explicamos a continuación.

Amelia tiene a su disposición una cantidad ilimitada de gasolina almacenada en el lugar de salida, en el límite del desierto.

Para realizar su viaje, dispone de un jeep en el que puede transportar como máximo, en cada momento, una unidad de combustible. Con cada unidad de gasolina puede viajar una unidad de distancia; se supone que el consumo de combustible es constante.

En cualquier momento del viaje, Amelia puede dejar cualquier cantidad de combustible en un depósito para poder recogerlo más tarde al volver a pasar por allí. La mecenas le exige, además, que siempre que el jeep comience a salir del desierto debe regresar necesariamente al punto de partida.

Con todas estas normas impuestas, la pregunta es: ¿hasta dónde puede llegar Amelia en su paseo por el desierto?

Vamos a intentar ver que puede llegar tan lejos como quiera, solo con un poco de estrategia por su parte. Para ello, vamos a explicar lo lejos llegaría realizando tres viajes –saliendo tres veces del punto de partida– para describir después el caso general.

La estrategia de Amelia si realiza tres salidas

Amelia sale de la base una unidad de gasolina en el depósito del jeep y conduce 1/6 de unidades de distancia. Es decir, ha consumido la sexta parte del combustible. Deja 2/3 de unidades de combustible en un depósito, y regresa al punto de partida con el 1/6 de combustible que le queda.

Figura 1: Sobre el coche, en blanco aparecen las unidades de gasolina en el depósito, y en los bidones, en rojo, la cantidad de combustible almacenada. Fuente: Marta Macho Stadler

Amelia vuelve a cargar el depósito del jeep al máximo –es decir con una unidad de combustible– y conduce 1/6 de unidades de distancia. Ha gastado 1/6 de unidades de gasolina; llena el depósito del coche con 1/6 de combustible tomado del depósito, y vuelve a adentrarse en el desierto, dejando en el primer depósito 1/2 de unidades de fuel. Desde ese punto conduce 1/4 de unidades de distancia y deposita 1/2 unidad de gasolina en un segundo recipiente. Le quedan 1/4 de unidades de fuel, lo justo para llegar al primer bidón. De ese recipiente toma 1/6 de unidades de combustible –es decir, deja el primer bidón con 1/3 de unidades de fuel– y llega a la base con el depósito del coche vacío.

Figura 2 : Sobre el coche, en blanco aparecen las unidades de gasolina en el depósito, y en los bidones, en rojo, la cantidad de combustible almacenada. Fuente: Marta Macho Stadler

Amelia carga el coche con el máximo de gasolina, llega al primer bidón y utiliza 1/6 de combustible para volver a llenar el depósito del jeep –así, en el primer depósito, deja 1/6 de unidades de gasolina–. Llega al segundo recipiente tras recorrer 1/4 de unidades de distancia, y allí vuelve a llenar el vehículo con fuel, dejando en el segundo depósito 1/4 de unidades de combustible, y continúa su viaje hacia el interior del desierto. Tras recorrer 1/2 unidad de distancia, da la vuelta, llega al segundo recipiente gastando todo el combustible que le queda, usa el fuel del segundo recipiente para llegar al primero y de nuevo toma la gasolina del primer bidón para regresar al punto de partida.

Figura 3: Sobre el coche, en blanco aparecen las unidades de gasolina en el depósito, y en los bidones, en rojo, la cantidad de combustible almacenada. Fuente: Marta Macho Stadler

Así, con estas tres idas y vueltas, Amelia se ha adentrado en el desierto 11/12 de unidades de distancia.

Entendiendo el caso general

La estrategia utilizada por Amelia con tres salidas desde el límite del desierto puede generalizarse para cualquier n:

  1. El jeep realiza n viajes de ida y vuelta.

  2. En la primera salida, viaja 1/(2n) de unidades de distancia, deja (n − 1)/n unidades de gasolina en el primer depósito, quedándose con el combustible justo para llegar a la base.

  3. En cada una de las n − 1 siguientes salidas, y en dirección hacia el interior del desierto, Amelia va tomando de cada depósito el combustible necesario para llenar al máximo el jeep y llegar al siguiente depósito. Y al regresar, va tomando solo la gasolina suficiente para llegar al depósito anterior.

  4. Esta operación la puede realizar n veces, dejando en su último viaje todos los bidones vacíos, y habiendo recorrido en la dirección del desierto

1/2 + 1/4 + 1/6 + … + 1/(2n) = 1/2 (1 + 1/2 + 1/3 + … + 1/n)

de unidades de distancia.

Recordemos que 1 + 1/2 + 1/3 + … + 1/n es el n-ésimo número armónico,la suma parcial n-ésima de la serie armónica, que es una serie divergente.

¿Y que tiene esto que ver con el viaje de Amelia? Si la exploradora utiliza la estrategia anteriormente descrita, podrá adentrarse en el desierto todo lo que desee, porque para n suficientemente avanzado,

1/2 (1 + 1/2 + 1/3 + … + 1/n)

es tan grande como se desee… Como el desierto, sea cual sea el que ha elegido Amelia, tiene dimensiones finitas, la exploradora puede recorrerlo por completo. Solo necesita suficiente tiempo –que no sobrepase su tiempo de vida–: Amelia completará su aventura. Aunque es probable que arruine a su mecenas y, sobre todo, que desperdicie un combustible precioso de manera un tanto caprichosa…

Más información:

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Amelia quiere explorar el desierto se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Mestizajes: ¿Cómo sabe una metáfora? Poética y ciencia, por Amelia Gamoneda
  2. ¿Quién quiere vivir para siempre?
  3. El diablo y Simon Flagg, una lectura ligera para el verano
Kategoriak: Zientzia

Sistemas nerviosos: el cerebro de vertebrados

Ar, 2017-08-15 17:00

Áreas de Brodman en un cerebro de primate

El cerebro, que se desarrolla a partir del telencéfalo embrionario, es la estructura encefálica de vertebrados que ha alcanzado en mamíferos su máximo desarrollo. Contiene, a su vez, el bulbo olfatorio, los ganglios basales, el hipocampo y la corteza cerebral.

El prosencéfalo de todos los vertebrados posee una estructura en láminas denominada pallium. El pallium de agnatos (lampreas), peces condrictios (tiburones) y anfibios obedece a un esquema básico general, consistente en dos hemisferios unidos por una región denominada septum. Cada uno de los hemisferios asemeja un cilindro formado por tres capas, en cuyo interior quedan cavidades llenas de líquido denominadas ventrículos. La capa que da al ventrículo y la que da al exterior son de materia blanca, y la que queda entre ellas, de materia gris. En el resto de los grupos (peces teleósteos, reptiles, aves y mamíferos) se produce una fuerte modificación del esquema básico, debido al crecimiento diferencial de diferentes zonas del pallium original en cada uno de ellos. En mamíferos se diferencian cuatro zonas en el contorno de la forma cilíndrica antes mencionada, que se denominan pallium dorsal, medio, ventral y lateral, cuyo desarrollo daría lugar, respectivamente, al neocortex, el hipocampo, la amígdala y la corteza olfativa. El neocortex es la región que alcanza un mayor desarrollo de todas ellas.

El cerebro es un órgano con simetría bilateral y su desarrollo en mamíferos da forma a dos mitades o hemisferios cerebrales que, en los placentarios, se encuentran conectadas por el corpus callosum, una especie de “autopista de información” por la que se estima atraviesan unos 300 millones de axones neuronales. Cada hemisferio cerebral consiste en una fina capa de materia gris (corteza o córtex cerebral) que cubre una capa gruesa interna de materia blanca (médula cerebral). En el interior de la materia blanca se encuentra otra región de materia gris, los ganglios basales. La materia gris está formada por cuerpos neuronales empaquetados, sus dendritas y células gliales. La materia blanca está formada por ramos o fascículos de axones cubiertos de vainas de mielina. El color blanco se debe a la vaina de mielina, que está formada por lípidos.

Simplificando, se puede decir que la materia gris procesa la información, o sea, integra inputs de diferentes procedencias y elabora nuevas señales, mientras que la blanca la conduce, esto es, envía las señales a otros destinos. Las fibras de la materia blanca transmiten información de una zona a otra de la corteza o, también, a zonas que no se encuentran en ella. Es así como se produce la integración que permite el procesamiento de las señales que se reciben y la consiguiente elaboración de respuestas.

En los grupos de mamíferos en que alcanza su máximo desarrollo, la corteza cerebral presenta múltiples hendiduras o pliegues, lo que permite que aumente de forma considerable el número de neuronas que alberga. En lo que a su configuración tisular se refiere, es una estructura dispuesta en seis capas (procedentes del pallium dorsal), y se organiza en columnas verticales que se extienden perpendicularmente hasta la materia blanca, a dos milímetros de profundidad desde la superficie de la corteza. Se cree que cada una de esas columnas constituye un “equipo” formado por las neuronas contenidas en ella, cada una de las cuales desempeñaría una función en la tarea propia de la columna. Las diferencias funcionales entre unas y otras columnas tienen su reflejo en diferentes grosores de alguna de las seis capas.

Cada mitad de la corteza cerebral se divide en cuatro lóbulos: occipital, temporal, parietal y frontal, nombres que hacen referencia a los correspondientes huesos del cráneo. Los lóbulos occipitales, que se encuentran en la parte posterior, son los responsables del procesamiento inicial de las señales visuales. La información sonora se recibe, en primera instancia, en los lóbulos temporales, que tienen una disposición lateral a ambos lados de la cabeza. Los lóbulos parietales y frontales se encuentran en la parte superior del encéfalo y están separados por el denominado surco central del cerebro, un pliegue o invaginación profunda que discurre de arriba abajo hacia la mitad de la superficie lateral de cada hemisferio. Los lóbulos parietales quedan en la parte posterior, detrás del surco central, mientras los frontales quedan por delante. Los parietales reciben y procesan la información sensorial. Los frontales desempeñan varias tareas: (1) actividad motora de carácter voluntario; (2) producción vocal en los mamíferos que poseen esta capacidad; y (3) funciones superiores, como planificación y otras.

Si bien la descripción de la anatomía cortical por lóbulos resulta útil en una primera aproximación, suele recurrirse a las denominadas “áreas de Brodmann” para una caracterización más precisa. Un área de Brodmann es una región de la corteza del cerebro de primates definida por su estructura histológica, organización celular y citoarquitectura. Hay 52 áreas de Brodmann, aunque alguna está, a su vez, subdividida en dos áreas, y alguna de ellas sólo se halla presente en primates no humanos.

Fuentes:

Eric R. Kandel, James H. Schwartz, Thomas M. Jessell, Steven A. Siegelbaum & A. J. Hudspeth (2012): Principles of Neural Science, Mc Graw Hill, New York

Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sistemas nerviosos: el cerebro de vertebrados se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas nerviosos: el sistema central de vertebrados
  2. Sistemas nerviosos: el sistema periférico de vertebrados
  3. Sistemas nerviosos: el tálamo y el hipotálamo
Kategoriak: Zientzia

Presión y volumen de un gas

Ar, 2017-08-15 11:59

Terminábamos la entrega anterior preguntándonos por qué las bombas de pistón manuales, también llamadas bombas de elevación o aspirantes, no pueden elevar el agua más de 10 metros y cuestionándonos por qué funcionaban. Estas preguntas se resolvieron a lo largo del siglo XVII gracias al trabajo experimental de varios investigadores, entre ellos, Torricelli (un alumno de Galileo), Guericke, Pascal, y Boyle.

Para 1660, estaba bastante claro que el funcionamiento de una bomba de aspirante depende de la presión del aire. Al eliminar un poco de aire por encima del agua por la acción de la bomba, simplemente se reduce la presión en la parte superior del agua que está dentro del tubo sumergido en el pozo. Como inicialmente la presión es la atmosférica, eso quiere decir que la acción de la bomba consigue que ahora haya una presión inferior a la atmosférica por encima de la columna de agua que está en el tubo. Es entonces la presión que ejerce la atmósfera en la masa de agua del pozo la que fuerza a que el agua suba por el tubo hasta que se igualan las presiones (la presión dentro del tubo es ahora la de la columna de agua que está por encima del nivel de la superficie del agua del pozo más lo que quede de presión atmosférica). Una buena bomba puede reducir la presión en la parte superior del tubo a casi cero. La presión atmosférica puede, por tanto, forzar el agua del tubo a elevarse considerablemente por encima del nivel del agua del pozo.

Pero ocurre que la presión atmosférica al nivel del mar no es lo suficientemente grande como para soportar una columna de agua de más de 10 m de altura. Como el mercurio es casi 14 veces más denso que el agua, la misma presión atmosférica solo podría soportar una columna 14 veces más pequeña, esto es, de aproximadamente 0.76 m (760 mm). Resulta que esta altura está muy bien para construir un instrumento con el que medir la presión atmosférica.

Por lo tanto, gran parte de la investigación del siglo XVII sobre la presión atmosférica se realizó con una columna de mercurio, un barómetro de mercurio. Torricelli diseñó el primero de estos barómetros. La altura de la columna de mercurio que puede ser soportada por la presión del aire no depende del diámetro del tubo, es decir, no depende de la cantidad total de mercurio, sino sólo de su altura. Esto puede parecer extraño al principio. Para entenderlo, debemos considerar la diferencia que existe entre presión y fuerza. La presión se define como la magnitud de la fuerza (F) que actúa perpendicularmente (esto lo indicamos con el símbolo ┴ como subíndice) sobre una superficie dividida por el área (A) de esa superficie, P = F┴ / A , y se mide, por tanto, en N/m2.

Por lo tanto, una fuerza grande puede producir una presión pequeña si se distribuye por un área muy grande. Por ejemplo, se puede caminar sobre la nieve sin hundirse en ella si se emplean raquetas de nieve Por otra parte, una pequeña fuerza puede producir una gran presión si se concentra en un área pequeña. El tacón de los zapatos de tacón de aguja puede producir una presión enorme, mayor que la hay debajo de la pata de un elefante; de hecho, pueden perforar suelos de madera y alfombras con mucha facilidad.

En definitiva, la medida de la presión no se ve afectada por el área de la sección transversal del tubo del barómetro ni por el peso (que es una fuerza) de la masa de mercurio en la columna, porque la presión es precisamente el cociente entre las dos. En una columna de mercurio que pese el doble que otra porque el tubo sea el doble habrá la misma presión porque el área será también el doble.

Este tipo de variables que no dependen de la masa se llaman intensivas. Existe otro tipo de variables, las llamadas extensivas que si dependen de la cantidad de materia, como el volumen. Pero sabemos que si aumentamos la presión, por ejemplo soplando más en un globo, el volumen puede aumentar. Es muy interesante esta relación de propiedades intensivas y extensivas.

En 1661, dos científicos ingleses, Richard Towneley y Henry Power, descubrieron una importante relación básica. Encontraron que en un globo de paredes delgadas, la presión ejercida por un gas es inversamente proporcional al volumen ocupado por ese gas. Duplicar la presión (al dejar entrar más gas) duplicará el volumen del globo. Usando P para la presión y V para el volumen, esta relación es P = a /V, donde a es una constante de proporcionalidad; también lo podemos escribir, P·V = a .

Si el volumen de una cantidad dada de aire en un globo es reducido a la mitad (por ejemplo, comprimiéndolo), la presión ejercida por el gas en el interior se duplica. Por otro lado, si se dobla el volumen del recipiente cerrado con una cierta cantidad de aire dentro, la presión interior se reduce a la mitad. Robert Boyle confirmó esta relación mediante multitud de experimentos. Es una regla empírica, ahora generalmente conocida como la ley de Boyle. Sin embargo, la ley se aplica exactamente sólo bajo condiciones especiales, como veremos.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Presión y volumen de un gas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La máquina de vapor (1)
  2. Una cuestión de movimiento
  3. Los experimentos de Joule
Kategoriak: Zientzia

El encéfalo humano

Al, 2017-08-14 17:00

El encéfalo de un ser humano adulto tiene una masa de entre 1,2 kg y 1,4 Kg, lo que representa alrededor de un 2% de la masa corporal total. Su volumen viene a ser de 1260 cm3 en los hombres y 1130 cm3 en las mujeres, aunque hay una gran variabilidad entre individuos. A pesar de representar un 2% de la masa corporal, consume alrededor de un 20% de la energía que gasta todo el organismo.

Ese gasto energético tan alto tiene su origen en la frenética actividad que desarrollan las aproximadamente noventa mil millones de neuronas que posee. Cada neurona mantiene con las vecinas del orden de cinco mil conexiones sinápticas. El número total de tales conexiones se encuentra, quizás, entre 2 x 1014 y 3 x 1014. Un encéfalo normal puede establecer y deshacer un millón de conexiones por segundo.

Hace uso de un conjunto de sensores capaces de recibir información en forma de variaciones de presión, radiaciones electromagnéticas y sustancias químicas. Los propios sensores convierten esa información en señales bioeléctricas que consisten en despolarizaciones transitorias, de magnitud constante, que se desplazan con frecuencias variables a lo largo de las membrana de las neuronas que conectan los sensores con el encéfalo. Éste, una vez recibidas, filtra y prioriza las señales en función del interés de la información que contienen o del peligro que indican. Y a partir de esa información y de la que posee almacenada en sus circuitos, reconstruye –o recrea- el entorno en el que se encuentra. Siempre que el cuerpo aguante, puede almacenar información durante un siglo, catalogándola automáticamente y editándola cuando se necesita. De hecho, modifica esa información cualitativa y cuantitativamente cada vez que accede a ella, y construye a partir de ella un “yo” cada vez que se hace consciente al despertar.

Gobierna un sistema de mensajería química de gran complejidad y coordina la actividad de al menos sesicientos músculos. Mediante esas herramientas se ocupa de organizar el procesamiento de energía, de gobernar las actividades conducentes a la reproducción del organismo en el que se encuentra y, por supuesto, de preservar su misma existencia, aunque a esta último fin dedica normalmente un esfuerzo mínimo.

El resto de su capacidad la dedica a relacionarse con otros encéfalos, valorar el sentido de la existencia y aprender de la experiencia y de semejantes a los que ni siquiera ha llegado a conocer.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo El encéfalo humano se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El encéfalo bilingüe: por qué no existe un modelo único
  2. El encéfalo transparente
  3. Errar es humano
Kategoriak: Zientzia

Cuando en Venus es de noche el caos atmosférico aumenta

Al, 2017-08-14 11:59

Venus, considerado durante mucho tiempo el planeta gemelo de la Tierra, es, sin embargo, un infierno comparado con nuestro planeta, con temperaturas en la superficie superiores a los 450ºC, una atmósfera aplastante y densas nubes de ácido sulfúrico que cubren todo el planeta.

Esquema de la superrotación atmosférica de Venus en las nubes superiores. Mientras que la superrotación es más uniforme en el lado diurno de Venus (imagen tomada por la nave Akatsuki, derecha), en la noche esta se vuelve más caótica e impredecible (imagen tomada por Venus Express, izquierda). CRÉDITOS: ESA-NASA-JAXA-UPV/EHU.

En los años 60, observaciones en luz ultravioleta permitieron medir con precisión los movimientos de las nubes en el lado diurno de Venus, resultando en vientos de más de 360 km/h. Esto fue toda una sorpresa porque tanto en la Tierra como en otros planetas semejantes como Marte, la atmósfera rota a un ritmo parecido al del planeta. En Venus, sin embargo, la atmósfera completa una vuelta alrededor del planeta en apenas 4 días mientras que el planeta –mucho más lento– tarda 243 días en girar sobre sí mismo. A esta rotación rápida de la atmósfera se le conoce como “superrotación” y los mecanismos físicos que la generan son todavía desconocidos. Hasta el momento no se sabía cómo se comportaba esta circulación atmosférica en el lado nocturno del planeta. Ahora, un trabajo encabezado por astrónomos españoles en el que participan la Agencia Aeroespacial Japonesa (JAXA), la Universidad del País Vasco (UPV/EHU), el Instituto de Astrofísica y Planetología Espacial (IAPS, Italia), el Instituto Nacional Japonés de Ciencia y Tecnología Industrial Avanzada (AIST), y la Universidad Técnica de Berlín, entre otros, desvela que el comportamiento de los vientos en la noche de Venus es marcadamente diferente al del que se encuentra de día.

“Saber de dónde saca la energía la atmósfera de Venus para tener esta ‘superrotación’ continúa siendo un misterio, y los modelos numéricos siguen sin lograr simulaciones realistas del planeta”, señala Javier Peralta, miembro de la misión espacial japonesa Akatsuki en JAXA y doctorado en la UPV/EHU que lidera este estudio publicado en Nature Astronomy y destacado por la revista en su sección News & Views. “El problema es que habíamos asumido, erróneamente, que en la noche de Venus ocurre lo mismo que en el día, ya que hasta ahora no éramos capaces de ver claramente cómo era la superrotación atmosférica en el lado nocturno del planeta.”

Ejemplos de los tipos de nubes observados en la noche de Venus en imágenes térmicas tomadas por Venus Express y con el telescopio IRTF de NASA en Hawaii: ondas estacionarias (Venus Express, arriba izquierda), patrones de “red” (IRTF, arriba derecha), misteriosos filamentos (Venus Express, abajo izquierda) e inestabilidades de origen dinámico (Venus Express, abajo, derecha). (Fotos: ESA-NASA-JAXA-UPV/EHU)

“A unos 70 km de altura se encuentran las nubes más altas de Venus, precisamente donde la superrotación es más intensa. Estas nubes pueden observarse por la noche, gracias a su emisión térmica, pero las imágenes de misiones espaciales anteriores apenas mostraban detalles en ellas”, comenta Ricardo Hueso, investigador de la UPV/EHU. Gracias a nuevas técnicas de procesado de imágenes este equipo internacional de investigadores de España, Japón, Alemania e Italia ha descubierto que tanto las nubes nocturnas como sus movimientos se diferencian de las observadas durante el día. El estudio se basa en el análisis de observaciones efectuadas por el instrumento VIRTIS a bordo de la misión espacial Venus Express de la agencia espacial europea ESA, que orbitó el planeta desde 2006 hasta el año 2014, con el apoyo de observaciones independientes efectuadas en 2015 por un equipo japonés usando el telescopio IRTF de NASA en Hawaii, que han permitido observar también el hemisferio norte del planeta.

“Si bien la superrotación se mantiene en la noche, esta parece mucho menos ‘uniforme’ que durante el día, con una rica variedad de movimientos y con tipos de nubes que nunca habíamos visto que sufren cambios drásticos e impredecibles de un día para otro”, apunta Agustín Sánchez Lavega director del Grupo de Ciencias Planetarias de la UPV/EHU.

Imagen de gran campo del lado nocturno de Venus mostrando emisiones térmicas de la atmósfera superior del planeta (Venus Express). CRÉDITOS: ESA-UPV/EHU

Pero la mayor sorpresa fue encontrar abundante estructuras en las nubes que no se mueven, lo que ha sido interpretado por el equipo como un tipo de ondas atmosféricas llamadas “estacionarias”. Estas ondas son semejantes a otro fenómeno ondulatorio en la atmósfera de Venus encontrado recientemente por la misión espacial japonesa Akatsuki, una onda estacionaria de miles de kilómetros que se localiza encima de las tierras altas de “Aphrodita Terra”. En este nuevo estudio las ondas estacionarias tienen tamaños muchos más pequeños, de centenares de kilómetros, y se localizan también en las posiciones geográficas donde hay zonas elevadas de la superficie. Dado que estas ondas se suelen formar cuando el viento en superficie encuentra obstáculos como una montaña, verlas constantemente es paradójico, pues la superficie de Venus es muy poco accidentada.

Se espera que con las observaciones que la nave Akatsuki está realizando en órbita alrededor de Venus, junto con el apoyo de observaciones desde Tierra, se pueda arrojar luz sobre un desafío que dura ya más de 60 años: el misterio de la superrotación en la atmósfera de Venus.

Referencia bibliográfica

J. Peralta, R. Hueso, A. Sánchez-Lavega, Y. J. Lee, A. García-Muñoz, T. Kouyama, H. Sawada, T. M. Sato, G. Piccioni, S. Tellmann, T. Imamura, T. Satoh. “Stationary waves and slowly moving features in the night upper clouds of Venus”. Nature Astronomy. DOI: 10.1038/s41550-017-0187.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Cuando en Venus es de noche el caos atmosférico aumenta se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sorpresas en la atmósfera del polo sur de Venus
  2. NASA, ¿cuándo vas a llevarnos a Venus en un barco (o en lo que sea)?
  3. Los volcanes de Venus
Kategoriak: Zientzia

El caso de Julius Lederer (y del agua que bebemos)

Ig, 2017-08-13 11:59

Julius Lederer

Esta es la historia de Julius Lederer. Había nacido en Bornheim, Alemania, en 1980 y llegó a España, a A Coruña, en 2006. Estaba en contacto con su familia en Alemania y le pasaban una pensión pero pronto comenzó a vivir en la calle, siempre con su mochila y bien vestido. Poco a poco lo perdió todo, la mochila y la ropa y se cubría solo con una manta y unas bolsas de basura. Su olor era espantoso, pedía en la calle y, con el dinero que obtenía, compraba comida en los supermercados. Era tranquilo, pacífico y poco hablador; no quería tratos con nadie. Años más tarde, en 2011, y tras pasar por varios pueblos y ciudades de A Coruña y de la costa de Lugo, fue ingresado por orden judicial en el Área de Psiquiatría del Hospital de Lugo. A pesar del tratamiento, a los dos meses y con solo 31 años, murió.

No hay constancia oficial pero parece que falleció de potomanía, es decir, de consumo excesivo de agua. Los que le conocían de su vida en la calle no habían notado que bebiese agua en exceso. Sus familiares declararon que odiaba los fármacos y creen que, para eliminar de su organismo la medicación que le administraban en el hospital, bebía hasta diez litros de agua al día. Con tanta agua quizá eliminó los medicamentos pero también diluyó su medio interno, quizá provocó hiponatremia, o sea, un concentración en sangre de sodio demasiado baja, y esa fue la causa de su muerte.

Para conocer más la historia de Julius les recomiendo el documental “El mundo tras Julius”.

El mundo tras Julius (Documental completo en castellano) from FlyingRatProductions on Vimeo.

Pasemos ahora a la bibliografía científica sobre el consumo de agua. Hay que beber ocho vasos de agua al día. Esta es la recomendación que aparece todos los años en cuanto arrecia el calor. Dicen que es bueno o, más bien, indispensable para nuestra salud. Y, sin embargo, es un mito de esos tan habituales que tardan mucho tiempo, y mucha tinta, en desaparecer. O que parece no desaparecer nunca. Nos cuenta Aaron Carroll, de la Universidad de Indiana en Indianápolis, en un artículo en el British Medical Journal y en el diario El País, que todo comenzó en 1945 en una publicación del Consejo de Alimentación y Nutrición de Estados Unidos. Allí se decía que

Water. A suitable allowance of water for adults is 2.5 liters daily in most instances. An ordinary standard for diverse persons is one milliliter for each calorie of food. Most of this quantity is contained in prepared foods… Water should be allowed ad libitum, since sensations of thirst usually serve as adequated guides to intake except for infants and sick persons.”

Por tanto, “las personas necesitan unos 2.5 litros de agua al día”. Pero a la cita nunca se le añade el párrafo que seguía y que precisaba que “la mayor parte de esta cantidad está en los alimentos”. O sea, que no hay que traducir los 2.5 litros de agua en ocho vasos de unos 250 mililitros puesto que ya tomamos el líquido necesario con los alimentos. Beba cuando tenga sed, pero no exceso pues, como veremos ahora, demasiada agua es peligrosa. En fin, beba con sed y deje de beber cuando se le quite la sed.

El control de la sed viene del mecanismo que la evolución ha seleccionado para controlar el volumen de los fluidos internos y, sobre todo, de la concentración de iones y, más en concreto, del sodio. Si hay poco sodio se provoca la hiponatremia, y pueden aparecer síntomas como letargia, náuseas, convulsiones e, incluso, el coma y la muerte.

En febrero de 2015 se reunieron en Carlsbad, California, un grupo de 17 expertos en hiponatremia provocada por la toma excesiva de agua, sobre todo por la sed provocada por un intenso ejercicio físico. Entre los participantes en carreras de fondo, sea atletismo o ciclismo, la pérdida de fluidos provoca sed y, habitualmente, se toma mucho agua, casi siempre con iones, para reponer líquidos y iones. Pero se debe controlar la cantidad del líquido ingerido pues es frecuente que, al final de estas carreras, puede ocurrir que la mitad de los participantes presenten síntomas de hiponatremia por toma excesiva de agua. Así, los expertos recomiendan que, en carreras largas, los espacios habilitados para proporcionar líquidos a los atletas queden lo suficientemente espaciados como para evitar el consumo excesivo de agua.

Sin embargo, como cuentan Pascal Saker y sus colegas, de la Universidad de Melbourne, no conocemos con exactitud el mecanismo de ajuste entre la desaparición de la sed después de haber bebido y la cantidad de agua ingerida. En algún momento, al beber, la sed es reemplazada por la saciedad y, entonces, se deja de beber. Incluso se ha medido que el líquido que se toma se ajusta a la cantidad perdida que ha provocado la sed. Pero, repito, no se conoce el mecanismo que hace que nos sintamos saciados y ya no tengamos sed.

La sed la provocan señales de deshidratación en las células, los cambios en las concentraciones de diversas moléculas en la sangre y la pérdida de líquidos en el exterior de las células. Son varios mecanismos que, a su vez, provocan el funcionamiento de un sistema de hormonas con renina y angiotensina que controla la cantidad de fluidos corporales. Así se provoca la sed y es un mecanismos relativamente conocido y, por el contrario y como ya he mencionado, el proceso por el que desaparece la sed no lo es tanto. Parece que se relaciona con la sensación de sequedad en la boca y con los cambios que provoca en esa sensación el beber agua. Para estudiar si hay otros mecanismos, el grupo de Pascal Saker obtiene imágenes de resonancia del cerebro de voluntarios con sensación de sed cuando beben agua.

Las áreas del cerebro que se activan tienen que ver con la inhibición del proceso de tragar y con los músculos de la boca y la faringe que actúan para tragar. Trabajan con 20 voluntarios, con 7 mujeres, una edad media de 30 años y un rango de 25 a 45 años. Los investigadores provocan la sed en los voluntarios con una hora de ejercicio físico intenso en bicicleta estática y, después, se auto puntúan la sed que sienten de 0 a 10. A continuación, beben agua y se les hace la resonancia del cerebro.

La inhibición de tragar activa la corteza motora, la corteza prefrontal, la zona parietal posterior y el tálamo. Sobre todo se activa la corteza prefrontal del hemisferio derecho. Y cuando se bebe en exceso, por encima de la sensación de sed, la respuesta cerebral para inhibir el tragar es tres veces más fuerte que la respuesta habitual. El cerebro avisa de que tanto líquido no es necesario y que hasta puede ser un riesgo.

En conclusión, cuando se tiene sed y se bebe agua para quitar esa sensación incómoda, una de las primeras respuestas es inhibir la acción de tragar con lo que, en consecuencia, se deja de beber. Esta acción se localiza con más potencia en la corteza prefrontal del hemisferio derecho. Así se evita la toma excesiva de líquido que puede provocar la potomanía y la hiponatremia.

Y, ahora, veamos cómo, a menudo, cuesta tiempo y energía conseguir agua para aplacar la sed. A pesar de los progresos de las últimas décadas para conseguir el acceso de la población al agua potable, todavía 4000 millones de personas, más o menos dos tercios de la población mundial, sufren escasez de agua. En 2015 se estimó que más de 600 millones seguían sin disponer de agua limpia. Muchos hogares con acceso al agua deben ir a buscarla al pozo, la fuente, el río o cualquier otro lugar que proporcione agua potable o, por lo menos, que se pueda considerar más o menos limpia. Para aceptar que existe un acceso básico al agua, Jay Graham y su grupo, de la Universidad George Washington, en Estados Unidos, proponen que la condición es que se pueda ir a por agua y volver con ella al hogar en menos de media hora. Pero, añaden, muchos hogares necesitan dedicar más tiempo a buscar agua. Lo analizan en 24 países africanos del sur del Sáhara y estudian cómo se organizan en el hogar para traer el agua. Toman los datos de varias encuestas internacionales hechas sobre el terreno en los años 2005 y 2012.

En todos los países analizados, son mayoría las mujeres adultas que tiene que ir a por el agua para el hogar, con el mínimo en Liberia con el 46% de las mujeres y el máximo en Costa de Marfil con el 90%. Detrás se sitúan las niñas que, también en todos los países, superan a los niños, con una media del 62% para las niñas y el 38% para los niños. Hay seis países en que son los niños y niñas los que van a por el agua más que los adultos: Burundi, Camerún, Etiopía, Mozambique, Níger y Nigeria.

La escasez de agua en el hogar, la dificultad para conseguirla y la distancia a recorrer provocan inseguridad y estrés. Lo han medido Edward Stevenson y su grupo, del Colegio Universitario de Londres, en tres aldeas de Etiopía en las que una ONG ha construido aljibes para almacenar agua en la estación de lluvias y poder utilizarla en la estación seca. El estudio se hizo en marzo y abril de 2013 y de 2014. Otras tres aldeas cercanas, sin aljibes construidos, sirvieron como control.

Los resultados demuestran que el estrés en las mujeres, las encargadas de buscar el agua, es la mitad si disponen de agua en los aljibes respecto a las mujeres de las aldeas sin aljibes. Además, aumenta la cosecha y su calidad, otro posible factor estresante para estas mujeres, pues da seguridad tener alimentos para la familia e, incluso, la calidad y cantidad de la cosecha mejora su estatus socioeconómico.

En muchos países con dificultades para tener agua para el hogar, como hemos visto, son las mujeres las encargadas de conseguirla y su lucha para mejorar esa disponibilidad viene de hace tiempo. Por ejemplo, en 1991 Brinda Rao, de la Universidad de California en Santa Cruz, publicó un resumen de lo que había ocurrido en Maharashtra, en la India.

Cuenta que años antes, en 1972, un miembro del gobierno declaró que los 230000 pueblos del país sin agua potable ya la tendrían si fueran los hombres los encargados de llevarla a casa. En la India, como en África, el agua para el hogar es “cosa de mujeres”. Así es, y sobre todo en las zonas rurales, agua y mujeres son asuntos relacionados. Es en el norte de África, pero está muy bien contado en la película “La fuente de las mujeres”. Merece la pena verla.

Lo habitual es que las mujeres, de media, dediquen de tres a cinco horas al día para acarrear agua hasta el hogar aunque, además, y con las estadísticas de aquellos años, las mujeres hagan el 46% de todo el trabajo de la unidad familiar rural. Aunque, y es costumbre habitual, todo ello es el trabajo invisible de las mujeres. No se refleja en las estadísticas oficiales y, por tanto, es un problema sin visibilidad y no existe y, en consecuencia, no necesita soluciones.

En aquellas décadas de los setenta y ochenta, las soluciones no tenían en cuenta a las mujeres. La experiencia más innovadora en relación con el abastecimiento de agua fue la creación de cooperativas que se encargaban de su suministro y distribución. En la dirección de estas cooperativas había un consejo con un representante por cada hogar que era, por supuesto, un hombre. A pesar de esta falta de participación de las mujeres, Brinda Rao explica que en las aldeas con cooperativa, las mujeres se veían liberadas, en gran parte, del acarreo del agua hasta el hogar, lo que implica más tiempo para otras cosas, más seguridad, menos estrés y menos subordinación a las labores diarias.

Referencias:

Carroll, A.E. 2015. No, no tienes que beber ocho vasos de agua al día. El País, 28 agosto.

Graham, J.P. et al. 2016. An analysisis of water collection albor among women and children in 24 sub-Saharian African countries. PLOS ONE 11: e155981

Hew-Butler, T. et al. 2015. Statements of the 3rd International Exercise-Associated Hyponatremia Consensus Development Conference, Carlsbad, California, 2015. British Journal of Sports Medicine 49: 1432-1446.

National Research Council. 1945. Recommended dietary allowances. Revised 1945. Reprint and Circular Series 122, August 1945. Washington DC. 19 pp.

Rao, B. 1991. Las lucha por las condiciones de producción y la producción de las condiciones para la emancipación: las mujeres y el agua en Maharashtra, India. Ecología Política 1: 32-32.

Saker, P. et al. 2016. Over drinking, swallowing inhibition, and regional brain responses prior to swallowing. Proceedings of the National Academy of Scioences USA 113: 12274-12279.

Stevenson, E.G.J. et al. 2016. Community wáter improvement, household water insecurity, and women’s psychological distress: An interpretation and control study in Ethiopia. PLOS ONE 11: e153432

Vázquez Taín, J.A. 2015. Matar no es fácil. Espasa. Madrid. 288 pp.

Vreeman, R.C. & A.E. Carroll. 2007. Medical myths. British Medical Journal 335: 1288-1289.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo El caso de Julius Lederer (y del agua que bebemos) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La distribución del agua animal y el curioso caso del potasio
  2. El caso de Rin Tin Tin y sus amigos
  3. El caso de la mujer barbuda
Kategoriak: Zientzia

Arte & Ciencia: ¿Qué interés puede tener para los artistas el trabajo de un científico?

La, 2017-08-12 11:59

El arte y la ciencia son dos formas de conocimiento aparentemente alejadas, en gran medida consecuencia de la especialización profesional y la educación compartimentada. Del estudio de esta impostada separación surgió el estereotipo de las dos culturas, las ciencias y las humanidades, para referirnos a esa brecha de conocimiento. La realidad es que la ciencia y el arte sí están conectadas y que ninguna forma de conocimiento es impermeable a otra. Por poner algunos ejemplos: ¿Cómo podría crearse una obra plástica sin las técnicas propiciadas por la ciencia? ¿Cómo podríamos interpretar la elección de materiales?

Estas y otras cuestiones relacionadas furon tratadas por destacados profesionales -artistas, ilustradores, filósofos y científicos- que han puesto el foco en ese difuso trazo que une la ciencia y el arte. El ciclo Ciencia & Arte se desarrolló, bajo la dirección de Deborah García Bello, a lo largo de cuatro jornadas que se celebraron los jueves días 6 y 27 de abril y 11 y 25 de mayo de 2017 en el auditorio del Museo Guggeheim Bilbao.

Esta actividad de la Cátedra de Cultura Científica de la UPV/EHU se enmarca en el programa TopARTE que conmemora el XX Aniversario del Museo Guggenheim Bilbao.

Jornada 4. 3ª conferencia.

Sergio Prego, artista: ¿Qué interés puede tener para los artistas el trabajo de un científico?.

''¿Qué interés puede tener para los artistas el trabajo de un científico?''

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Arte & Ciencia: ¿Qué interés puede tener para los artistas el trabajo de un científico? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Arte & Ciencia: La importancia de la ciencia para la conservación del arte
  2. Arte & Ciencia: Analogías entre el arte y la ciencia como formas de conocimiento
  3. Arte & Ciencia: Sobre la dimensión cognitiva del arte en relación a la ciencia
Kategoriak: Zientzia

El valle de la evaporación de planetas

Or, 2017-08-11 12:00

El telescopio espacial Kepler de la NASA ha revolucionado nuestro conocimiento de los planetas extrasolares. Este satélite ha descubierto nada más y nada menos que más de 2.300 exoplanetas alrededor de otras estrellas mediante el método del tránsito. Una de las conclusiones más importantes que podemos extraer de este cúmulo de datos es que hay dos tipos de planetas que son muy comunes en el universo y que, curiosamente, se hallan ausentes de nuestro sistema solar. Nos referimos a los minineptunos y a las supertierras. Los dos tienen tamaños comprendidos entre el de nuestro planeta y el de Neptuno —que tiene cuatro veces el diámetro de la Tierra—, pero sus propiedades no pueden ser más diferentes.

Las supertierras, como su nombre indica, son una versión en grande de la Tierra, pero lo importante es que su superficie es sólida. Los minineptunos, por contra, están rodeados de una gruesa atmósfera y contienen grandes cantidades de hielos de agua, amoniaco y metano. Es lógico pensar que cuanto más pequeños sean estos planetas serán más parecidos a la Tierra y precisamente eso es lo que observamos en los datos observacionales. ¿Pero dónde está el límite entre las supertierras y los minineptunos?

Frecuencia de planetas en función de su tamaño según los datos de Kepler.Se observa la escasez de mundos entre 1,75 y 2 radios terrestres, el ‘valle misterioso’ (NASA/Ames Research Center/CalTech/University of Hawaii/B.J. Fulton)

En los últimos años esta frontera entre los dos tipos de exoplaneta se ha situado un tanto arbitrariamente alrededor de los dos radios terrestres. Es decir, un planeta con un tamaño superior será un minineptuno, mientras que si es inferior será una supertierra. Parece lógico, ya que un planeta más grande posee una mayor gravedad y es capaz de atrapar mejor las sustancias volátiles que caracterizan a los minineptunos. Igualmente, es razonable pensar que todos los tamaños de planetas de este tipo son más o menos igual de frecuentes. Sin embargo, en el último análisis de datos de la misión Kepler saltó la sorpresa. El telescopio de la NASA pudo comprobar que, contra lo que uno podría esperar, no existe un continuo de tamaños para los exoplanetas con radios comprendidos entre el de la Tierra y Neptuno, sino que la naturaleza favorece dos grupos muy claros de tamaños.

Efectivamente, Kepler nos ha enseñado que la mayor parte de supertierras tiene un tamaño de 1,3 veces el de la Tierra, mientras que los minineptunos suelen tener 2,4 veces el tamaño de la Tierra (o sea, casi justo el doble). Los mundos con un tamaño comprendido entre ambos escasean dramáticamente. Parece que la naturaleza ha decidido ponernos las cosas fáciles y ha introducido un mecanismo para que los exoplanetas de tamaño intermedio sean o bien supertierras, o bien minineptunos. Ahora bien, ¿cómo es esto posible?

Es importante reflexionar sobre lo que nos están diciendo los datos. De algún modo el Universo solo permite planetas de un tamaño concreto, como si estuviese en marcha un misterioso mecanismo cuántico planetario (obviamente, conviene aclarar que Kepler ha detectado planetas de tamaño intermedio entre supertierras y minineptunos, pero su frecuencia es muy baja). ¿Qué mecanismo es capaz de explicar esta distribución planetaria tan extraña?

Los investigadores James Owen y Yanqin Wu ya predijeron en 2013 esta diferencia cuando introdujeron la hipótesis del ‘valle de la evaporación’. De acuerdo con esta teoría, la mayor parte de supertierras serían los núcleos desnudos de minineptunos que han perdido su densa atmósfera por estar demasiado cerca de su estrella (recordemos que la mayoría de exoplanetas descubiertos por Kepler tienen un periodo muy corto, más que nada porque es más fácil detectar los planetas que están próximos a su estrella). Muy bien, pero quizás alguno pueda pensar que esta hipótesis no aclara el misterio. ¿Por qué la mayoría de los núcleos de minineptunos tienen el mismo tamaño? Y, además, tampoco explica por qué los minineptunos más frecuentes tienen todos 2,4 radios terrestres.

¿Puede la hipótesis del valle de la evaporación explicar la diferencia entre supertierras y minineptunos? (Fulton et al.)

Veamos. La cuestión es que, antes de que se produzca la fotoevaporación total por acción de los vientos estelares y la luz de longitudes de onda más energéticas procedentes de la estrella, la atmósfera del minineptuno se expandirá aumentado su tamaño. Cuanto más pequeño sea el núcleo del minineptuno o más cerca esté de la estrella, mayor será la fotoevaporación. El resultado es que los minineptunos tienden a tener el mismo radio porque así se mantiene constante el flujo radiativo que recibe de su estrella. Sin embargo, una vez que se alcanza un umbral crítico en la pérdida de la atmósfera el proceso de evaporación es muy rápido, lo que explica que no haya planetas con un tamaño intermedio. En cuanto al tamaño de los núcleos, 1,3 radios terrestres es el tamaño mínimo para que, con una composición similar a la terrestre, un planeta tenga la suficiente gravedad como para poder rodearse de una atmósfera densa de hidrógeno y helio.

Recientemente James Owen y Yanqin Wu han afinado su modelo para ajustarlo a los últimos datos de Kepler y lo cierto es que encaja a la perfección. Es verdad que el modelo de Owen y Wu predice minineptunos cuyo tamaño más frecuente sean 2,6 radios terrestres, mientras que Kepler nos dice que el tamaño preferido es de 2,3 radios terrestres, pero es una diferencia que cae dentro del error de los datos de Kepler. Si el modelo del valle de la evaporación es correcto, y parece que lo es, podemos extraer varias conclusiones muy valiosas sobre la evolución de los planetas extrasolares. Por un lado, que la mayor parte de supertierras que son núcleos evaporados de minineptunos tienen una composición similar a la terrestre y una masa de tres veces la de la Tierra, lo que apunta a que se formaron por dentro de la línea de nieve de su sistema estelar.

Por otro lado, que la atmósfera de los minineptunos está compuesta principalmente por hidrógeno y helio y tuvo que haberse formado por acreción de material del disco protoplanetario, por lo que no se creó posteriormente como resultado de la liberación de gases del interior planetario (un fenómeno que se cree ocurrió en los planetas rocosos del sistema solar).

Resulta fascinante que un modelo tan simple pero elegante como el del valle de la evaporación nos explique la curiosa relación entre los dos tipos de mundos más comunes de la Galaxia. Y surge la duda: ¿puede haber tenido este modelo alguna influencia en nuestro sistema solar primigenio?

Este post ha sido realizado por Daniel Marín (@Eurekablog) y es una colaboración de Naukas con la Cátedra de Cultura Científica de la UPV/EHU.

Referencias:
James Owen et al., The evaporation valley in the Kepler planets, arXiv:1705.10810, mayo 2017.

El artículo El valle de la evaporación de planetas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. 25 años de planetas extrasolares
  2. Venkatraman Ramakrishnan entrevistado por Mikel Valle
  3. Cartografiando el Cosmos
Kategoriak: Zientzia

Ni mitos ni remedios caseros: así me libré del acné

Og, 2017-08-10 11:59

Como la mayoría de la gente, yo también he tenido algún problema con la piel. Entre ellos el acné. Los problemas surgieron en la adolescencia y me acompañaron hasta terminar la carrera. Lo que más quebraderos me daba eran unos pequeños granitos que me salían en la frente. Fui al dermatólogo y éste me recomendó una crema con peróxido de benzoílo. Es un tratamiento habitual, pero mi piel no pudo suportarlo. Se me secó e irritó la frente. Me resultó tan desagradable que enseguida tiré la toalla. Imaginaba que acabaría curándose solo, con la edad, pero eso no es así, el acné puede acompañarnos toda la vida.

Entre mi nefasta experiencia con aquel producto y la poca fe que por aquel entonces tenía en la cosmética, estuve muchos años sin utilizar ningún producto específico. Mi problema no era grave, ni siquiera era evidente, pero a mí me traía por el camino de la amargura.

  • ¿Qué es el acné?

Aunque existen varios tipos, el acné es una afección de la piel que suele ser consecuencia de los cambios en nuestros niveles hormonales, por eso se da especialmente en la pubertad y durante los años de adolescencia.1

Las hormonas llamadas andrógenos se encargan de establecer la comunicación entre las glándulas sebáceas —las que generan el sebo de la piel— con los folículos —pequeñas aberturas de la piel por las que se secreta el sebo—.

En esencia, el acné es la consecuencia de una mala comunicación entre las glándulas sebáceas y los folículos. Normalmente, el sebo protege la piel con una capa resistente al agua, pero los cambios hormonales provocan que la secreción se acelere y la piel se vuelva más oleosa. Las capas externas de la piel se vuelven más gruesas y densas influidas por las mismas hormonas. El resultado es que los folículos se obstruyen con una mezcla densa de células y sebo. Se forman los puntos negros, en los que la mezcla se oscurece al entrar en contacto con el aire, o los puntos blancos, recubiertos por la superficie de la piel.

Aquí es donde se involucra una bacteria llamada P. Acnes. Ésta se multiplica en ambientes poco aireados como los poros obstruidos causando inflamación. Las consecuencias: un aumento de granitos enrojecidos, pústulas o incluso lesiones severas y profundas llamadas nódulos y quistes.

Las células encargadas de eliminar los residuos, los macrófagos, acaban con los tejidos dañados y estimulan la piel para que repare el daño. Esto lleva desde algunos días hasta semanas, según la gravedad del acné.

  • Algunos mitos sobre alimentos que causan acné

La preocupación de la influencia de la dieta en el acné surgió en los años 30, donde el chocolate, el azúcar y el yodo estaban entre los factores dietéticos implicados. En los estudios sobre el acné que se hicieron hasta los años 70, no se encontró ninguna conexión entre la dieta y el acné, así que este concepto se olvidó durante años. En cambio, hace un par de décadas estas ideas volvieron a la palestra. Se hicieron nuevos estudios2, algunos concluyentes y otros no. De ahí surgieron algunas certezas y proliferaron ciertos mitos. Veamos algunos de ellos:

  1. Leche

Se han realizado varios estudios3, con diferentes rangos de edad y diferentes productos lácteos4, que han llevado a concluir que el consumo de lácteos sí puede desencadenar acné. Todavía se desconoce qué ingredientes de la leche son los responsables y, por tanto, cómo sucede esto. Existe mayor evidencia con el consumo de leche desnatada5, cosa que podría atribuirse a la alfa-lactoalbúmina. Como esto no sucede siempre, no le ocurre a todo el mundo y no prevalece con todos los lácteos, consumir menos lácteos es un consejo que no hay que tomar muy en serio.

  1. Dulces, golosinas y otros alimentos de alto índice glucémico

En teoría, las dietas de elevada carga glucémica aumentarían la concentración de insulina, estimulando la producción de sebo y contribuyendo a las lesiones de acné. La realidad es que los estudios demuestran que una dieta de baja carga glucémica mejora el acné6. Por esto es recomendable dejar de consumir alimentos con azúcar añadido (dulces, bollería, golosinas, refrescos azucarados, etc.), edulcorantes como la miel o siropes, así como pan, pasta o cereales hechos con harinas blancas.

  1. Chocolate

Posiblemente el chocolate sea el alimento que más relacionamos con el acné, pero sorpresa, es un mito. No existe ninguna evidencia científica que relacione el consumo de chocolate con el acné. De hecho, los antioxidantes que contiene el chocolate son beneficiosos para la piel.

Podemos pensar que la razón de este mito estriba en el tipo de chocolate que consumimos. Si el chocolate contiene azúcar, es un alimento de alto índice glucémico y, por tanto, sí podríamos relacionarlo con el acné. 7El problema del chocolate está en el azúcar, así que la mejor opción es tomar chocolate sin azúcar.

  1. Alimentos grasos como la pizza o las patatas fritas

Un mito común sobre el acné es que la grasa alimentaria se traduce en más grasa en los poros, pero no hay una relación directa entre ambas.8 De todos modos, una dieta rica en grasas saturadas puede estimular las microinflamaciones en todos los órganos del cuerpo, incluida la piel.

  • Remedios contra el acné

Si buscas remedios contra el acné, huye de todo aquel que te prometa resultados en unos días, milagros o recetas caseras. Leerás por ahí burradas como emplear bicarbonato, pasta de dientes, miel, yogur o sudocrem. No utilices nada de eso.

Tanto el bicarbonato como la pasta de dientes son sustancias alcalinas y abrasivas que pueden avivar las lesiones e irritarte la piel. No emplees alimentos, como miel o yogur. Los azucares que contienen servirán como alimento a la bacteria del acné. El sudocrem es interesante si lo que tienes en un corte o arañazo, porque favorecerá la cicatrización, pero no actúa contra la causa del acné y puede obstruir aún más los poros. Tampoco utilices ninguna otra crema que no esté indicada para el acné. Una crema comedogénica podría empeorar el problema.

Otro de los falsos remedios contra el acné es el sol. Probablemente hayas escuchado que tomar el sol y broncearse reseca los granos y los cura. No es así. El bronceado puede disimular algunas marcas del acné, pero la realidad es que recientemente se ha descubierto que la radiación ultravioleta del sol empeora el acné.9 Los efectos desecantes del sol provocarán que tu piel sufra un efecto rebote y se acelere la producción de sebo. El engrosamiento de la capa externa de la piel obstruirá los poros e impedirá que el sebo se libere adecuadamente. Para evitar esto, es necesario utilizar productos de protección solar específicos para pieles con acné, fluidos sin aceites y con texturas no comedogénicas.

Para encontrar el mejor remedio contra el acné, seguro y eficaz, deberás acudir a tu médico, a tu dermatólogo y preguntarle a tu farmacéutico. Según la gravedad del acné, tu tipo de piel, tu edad y tus hábitos de vida, te recomendará seguir un tratamiento u otro. Los más comunes son:

  1. Tratamientos tópicos

Son cremas que se aplican sobre la piel. Suelen contener peróxido de benzoílo y retinoides. El peróxido de benzoílo mata a la bacteria responsable del acné, reduce el enrojecimiento y exfolia las células muertas. La principal desventaja de este tipo de tratamiento es que puede dejar la piel enrojecida, irritada, con sequedad y con descamaciones superficiales visibles.

Los retinoides son un grupo de derivados de la vitamina A con resultados excepcionales contra el acné. Ayudan a exfoliar las células superficiales que obstruyen los poros. La desventaja es que fotosensibilizan la piel, por lo que sólo pueden utilizarse por la noche o deben estar formulados en productos con protección solar.

Otras sustancias comunes en este tipo de cosméticos son la niacinamida —con efecto calmante—, la piroctona olamina y el glicacil —para luchar contra la proliferación bacteriana—, el procerad —una ceramida que evita las irritaciones y las marcas del acné—, LHA, ácido linoleico y ácido salicílico —microexfoliantes y con acción queratolítica—.

  1. Tratamientos orales

Los tratamientos orales habituales son los antibioticos y la isotretinoína10. Los tratamientos antibióticos sólo se prescriben en casos de acné graves y cuando los tratamientos tópicos resultan insuficientes. La doxiciclina es el más habitual.

El principal inconveniente es que estos antibióticos hacen que la piel se vuelva muy sensible a la luz solar. Por eso es imprescindible combinarlos con cosméticos con protección solar, fórmulas ligeras y no comedogénicas.

La isotretinoína es el medicamento más potente contra el acné. Seca la fuente original del acné (el sebo excesivo) y detiene indefinidamente la aparición de granitos. Esta solución es el último recurso. Los pacientes deben monitorizar su respuesta corporal al tratamiento mediante análisis de sangre realizados con regularidad. Los efectos secundarios incluyen sequedad severa en la piel y los labios o las fosas nasales, lo que podría causar descamación, tirantez e incluso sangrado en la nariz. A demás es fotosensibilizante, lo que significa que hace a la piel más vulnerable al sol.

Si estás tomando isotretinoína, tendrás que mantener la piel hidratada con cremas hidratantes de textura rica y usar un alto índice de protección solar. Utiliza algún bálsamo labial específicamente diseñado para labios muy secos.

  • Conclusiones

Al terminar la carrera de química, algunos de mis compañeros se decantaron por la cosmética. Ellos fueron mi nexo con esa ciencia y la razón por la que me atreví a volver a pedir asesoramiento. Esta es la conclusión: si tienes un problema de acné, pide asesoramiento. Consúltalo con tu médico, tu dermatólogo, tu farmacéutico.

Probé nuevos productos adaptados a mi piel y a mi estilo de vida, en mi caso sin peróxido de benzoílo, ya que resultó ser demasiado agresivo para mi piel. Esta vez sí tenía esperanzas. Me había librado de mis prejuicios gracias a entender la ciencia que hay tras el estudio del acné y de los productos cosméticos y farmacológicos que lo combaten. Tardé semanas en empezar a ver resultados, pero los resultados llegaron. Mi caso era un caso leve, que pude solucionar en poco tiempo y sólo empleando tratamientos tópicos. Jamás he vuelto a tener esos molestos granitos en mi frente, ni marcas, ni irritaciones, ni rojeces. Ojalá hubiese sabido todo esto un poco antes.

Fuentes:

[1] ¿Qué es y cuáles son las causas del acné? Artículo de La Roche-Posay.

[2]The Johnson & Johnson Skin Research Center; CPPW, a division of Johnson & Johnson Consumer Companies, Inc.; Skillman, NJ USA. The relationship of diet and acné. A review. Dermatoendocrinol. 2009 Sep-Oct; 1(5): 262–267.

[3] Adebamowo CA, Spiegelman D, Danby FW, Frazier AL, Willett WC, Holmes MD. High school dietary dairy intake and teenage acne. J Am Acad Dermatol. 2005;52(2):207–214

[4] Adebamowo CA, Spiegelman D, Berkey CS, et al. Milk consumption and acne in adolescent girls. Dermatol Online J. 2006;12(4):1

[5] Adebamowo CA, Spiegelman D, Berkey CS, et al. Milk consumption and acne in teenaged boys. J Am Acad Dermatol. 2008;58(5):787–793

[6] Smith RN, Mann NJ, Braue A, Mäkeläinen H, Varigos GA. A low-glycemic-load diet improves symptoms in acne vulgaris patients: a randomized controlled trial. Am J Clin Nutr. 2007;86(1):107–115

[7]De granos, leche y chocolate. Dermapixel, 2012.

[8] Mitos sobre los alimentos que producen acné. Artículo de La Roche-Posay.

[9] A Angel, DW Osborne, GJ Dow. Topical acne vulgairs medication with a sunscreen. Patent US7252816 B1, 2007

[10] Los efectos secundarios de los tratamientos contra el acné. Artículo de La Roche-Posay.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Ni mitos ni remedios caseros: así me libré del acné se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La sensación de ingravidez es como estar en caída libre continuamente
  2. Remedios que curan
  3. #Naukas15 Mitos y realidades de la seguridad informática
Kategoriak: Zientzia

Mosaicos hexagonales para el verano

Az, 2017-08-09 11:59

El pasado 25 de julio, de 2017, tuve el placer de participar en la jornada RSME-ANEM que tuvo lugar en Sevilla, dentro del XVIII Encuentro Nacional de Estudiantes de Matemáticas. Aprovechando mi estancia en la capital hispalense me acerqué a CaixaForum Sevilla, donde disfruté de dos magníficas exposiciones. La primera de ellas, Sorolla, un jardín para pintar, fue una exposición muy interesante sobre la relación del pintor valenciano Joaquín Sorolla con los patios y jardines andaluces y los de su propia casa madrileña, que él mismo diseñó. La segunda fue todo un descubrimiento para mí, la magnífica exposición Anglada-Camarasa (1871-1959), del pintor modernista catalán Hermenegildo Anglada Camarasa.

“La sibila” (1913), de Hermenegildo Anglada Camarasa

Sin embargo, en esta entrada del Cuaderno de Cultura Científica no voy a hablar de estas dos magníficas exposiciones, sino de un pequeño elemento funcional y decorativo que CaixaForum Sevilla utilizó para separar espacios en la exposición de Anglada Camarasa. Se trataba de una construcción con dos placas de metal con pequeños agujeros redondos y colocadas en paralelo, una detrás de la otra. Lo interesante de este pequeño elemento decorativo era el efecto óptico que se producía al mirarlo. Como se puede apreciar en las siguientes imágenes (que por desgracia no tienen la intensidad de lo que se realmente se veía), el efecto óptico consistía en la impresión de que se estaba mirando un mosaico de hexágonos regulares. Un bello efecto óptico, que no pude evitar fotografiar de inmediato.

Efecto óptico, de mosaico hexagonal, producido por dos placas metálicas paralelas con agujeros redondos en CaixaForum Sevilla

Como ya comentamos en la entrada Diseños geométricos de chocolate, solamente existen tres diseños de mosaicos regulares, es decir, realizados con polígonos regulares, aquellos que utilizan cuadrados, triángulos y hexágonos. El mosaico hexagonal, que vino a mis ojos a través del efecto óptico en CaixaForum Sevilla, está presente en muchos elementos de nuestra vida, desde sencillos elementos decorativos de nuestras casas y ciudades (de hecho, en la mencionada entrada del Cuaderno mostramos el mosaico hexagonal de baldosas que el arquitecto barcelonés Antoni Gaudí (1852-1926) creó para los suelos de la Casa Milá, La Pedrera, de Barcelona, y que ahora es todo un símbolo de la ciudad condal) a importantes aplicaciones industriales (como el Telescopio Espacial James Webb, de la NASA, la ESA y la CSA, cuyo espejo está formado por 18 segmentos hexagonales), pasando por su presencia en el arte.

Mosaico hexagonal del Paseo de Gracia, en Barcelona, con el diseño que realizó Antoni Gaudí para los suelos de la Casa Milá

Espejo, formado por un mosaico hexagonal con 18 hexágonos, del Telescopio Espacial James Webb, que será el sucesor del Telescopio Espacial Hubble y del Spiltzer, y que se lanzará al espacio en octubre de 2018

El objetivo de esta entrada es mostrar algunos ejemplos de la presencia del mosaico de hexágonos en el arte. Debido a que su uso en el arte, el diseño y la arquitectura es enorme, solo vamos a dar una pequeña muestra.

Iniciaremos este corto paseo con algunas obras del maestro del Op Art, arte óptico, el artista húngaro, que vivió la mayor parte de su vida en Francia, Víctor Vasarely (1906-1997). Entre las muchas obras de Vasarely, nos encontramos con una serie de nueve obras con el título conjunto Homenaje al hexágono (1969), que se encuentran en el MOMA (Museo de Arte Moderno) de Nueva York.

Una de las obras de la serie “Homenaje al hexágono” (1969), de Víctor Vasarely, que se encuentra en el MOMA de Nueva York

Aunque, como vemos en la imagen anterior, Vasarely no realiza un mosaico limpio de hexágonos, sino que juega con otro efecto óptico, muy habitual en su obra, lo que él llama “cubo de Kepler”. La proyección ortogonal de un cubo (desde una dirección que es paralela a una de las diagonales del cubo) es una imagen plana representada por un hexágono formado por tres rombos, que es la que se observa en cada uno de los hexágonos de la anterior obra de Vasarely. Si el cubo está vacío, es decir, solo está formado por las aristas laterales, entonces la proyección ortogonal del mismo es un hexágono formado por seis triángulos, como comentamos en la entrada Hipercubo, visualizando la cuarta dimensión.

Proyecciones ortogonales de un cubo siguiendo una dirección a) perpendicular a dos de las caras del cubo, y paralela a las otras cuatro; b) paralela solamente a dos de las caras del cubo; c) paralela a la diagonal; d) no paralela ni a las caras ni a la diagonal

A continuación, mostramos dos esculturas de Victor Vasarely formadas ambas por dos hexágonos y en cada una de ellas se muestra la imagen hexagonal del cubo que acabamos de comentar, en la primera obra formada por rombos y en la segunda por triángulos.

“Kettes” (que en húngaro significa “dos”), obra de Victor Vasarely, de 1984, pintada sobre madera

“Sin título” (1984), obra de Victor Vasarely, pintada sobre madera

El hexágono formado por tres rombos crea un efecto óptico muy conocido, y popular, del cubo, ya que da la impresión tanto de que es un cubo “hacia fuera”, como “hacia dentro”, a la vez. Es decir, se crea una doble impresión visual, en la que vemos tanto la imagen en la que el vértice del cubo que está en el centro de la imagen está más cerca de la persona que observa el “cubo”, como la imagen en la que está más lejos. Además, se puede jugar con los colores del cubo para marcar más una opción u otra. Obsérvense este efecto en las dos primeras obras de Vasarely.

Este efecto óptico del cubo, formado por hexágonos de tres rombos, es muy habitual en la decoración de casas, comercios, bares y otros locales de nuestras ciudades.

El artista óptico Victor Vasarely juega con estos elementos, junto con otros elementos, como formas, colores y proyecciones, para sacarle el máximo rendimiento.

“Cinético” (1971), de Victor Vasarely

En Francia se realizó un sello en 1977 con la obra de Victor Vasarely Tributo al hexágono, que se puede ver en la siguiente imagen.

Sello de 1977, con el valor de 3,00 francos, de la obra de Victor Vasarely, “Tributo al hexágono”

Estas son solo algunas de las muchas obras de Victor Vasarely relacionadas con el hexágono. Terminamos con otra en la que una vez más se juega con el efecto óptico del cubo, aunque con un doble efecto, como se puede apreciar.

“Bi-sanction”, de Victor Vasarely

Hay una artista muy interesante, por la utilización de patrones geométricos en su trabajo, que tiene algunas obras que me recuerdan mucho a estos estudios ópticos de Victor Vasarely sobre el hexágono y el cubo, es la artista iraní Monir Shahroudy Farmanfarmaian (Qazvin, Irán, 1924).

Esta artista iraní tiene una serie de mosaicos de espejos con piezas triangulares, cuadradas y hexagonales con las que juega creando imágenes globales más potentes, en particular, en varias de sus obras utiliza piezas hexagonales, que son cubos proyectados sobre el plano. En la primera de las que traemos aquí la imagen global es de nuevo un hexágono representando una imagen plana del cubo, que a su vez realiza un juego óptico.

“Hexágono” (2004), de la artista iraní Monir Shahroudy Farmanfarmaian

En la siguiente obra de Farmanfarmaian, Recuerdo 1 (2008), que como en sus demás obras nos transmite su admiración por el arte árabe antiguo, sus mosaicos y sus estructuras geométricas, crea una obra cuadrada, de nuevo utilizando piezas espejadas con forma hexagonal, que es un cubo proyectado.

“Recuerdo 1” (2008), de Monir Shahroudy Farmanfarmaian

Con la misma idea, pero con pequeños espejos hexagonales limpios, sin la referencia al cubo, se construye su obra, Recuerdo 2 (2008).

“Recuerdo 2” (2008), de Monir Shahroudy Farmanfarmaian

El hexágono es un elemento principal en muchas de sus obras. Terminaremos este pequeño paseo por el trabajo de la artista iraní Monir Shahroudy Farmanfarmaian con dos obras más relacionadas con este poliedro regular. La primera de ellas es parte de una serie de obras, todas de similar estructura, pero cuyas piezas forman un poliedro regular con diferente número de lados en cada una de ellas, desde tres (triángulo), hasta 10 (decágono) lados.

“Primera familia, hexágono” (2010), de Monir Shahroudy Farmanfarmaian

“Los dos hexágonos” (2005), de Monir Shahroudy Farmanfarmaian

Pero volvamos a los mosaicos hexagonales y de nuevo a los movimientos artísticos del siglo XX. Si antes hablábamos del arte óptico de la mano de Victor Vasarely, ahora nos adentraremos en la abstracción geométrica. El pintor argentino Rogelio Polosello (1939-2014), que fue un pintor que trabajó dentro de la abstracción geométrica, tiene una serie de cuadros que son mosaicos de hexágonos con rombos en su interior, como el que mostramos a continuación.

“Héxagono No. 4” (1974), de Rogelio Polosello

Otros artistas de la abstracción geométrica también han utilizado el hexágono, aunque no sea el mosaico hexagonal. Veamos un par de ejemplos. El primero es del pintor y grabador norteamericano Frank Stella (Massachusetts, 1936).

“Sydney Guberman” (1964), de Frank Stella

Y la segunda es de la artista estadounidense Edna Andrade (1917-2008) cuyo arte podemos enmarcar entre la abstracción geométrica y el arte óptico.

“Hot Blocks” (1966-67), de Edna Andrade

Vamos a terminar con alguien más actual que realiza obras basadas en el mosaico hexagonal, es el joven diseñador y arquitecto estadounidense Elijah Porter. Las siguientes imágenes son proyectos de superficies arquitectónicas realizadas por Porter.

Bibliografía

1.- Sorolla, un jardín para pintar, del 5 de julio al 31 de octubre de 2017, CaixaForum Sevilla

2.- Anglada-Camarasa (1871-1959), del 4 de marzo al 20 de agosto de 2017, CaixaForum Sevilla

3.- Página web de la NASA sobre el Telescopio Espacial James Webb

4.- Victor Vasarely, Hommage to the Hexagon (Hommage À La Hexagone) 1969, serie de obras perteneciente al MOMA

5.- Recollections: Monir Farmanfarmaian (2008), Nafas art magazine, Universes in univers

6.- Cosmic Geometry: The Life and Work of Monir Shahroudy Farmanfarmaian , Vogue, 2011

7.- Frank Stella – Connections – Haunch of Venison – London, Art Splash Contemporary Art

8.- Página de Elijah Porter en Flickr

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Mosaicos hexagonales para el verano se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El diablo y Simon Flagg, una lectura ligera para el verano
  2. Cómo se formaron las columnas hexagonales de la Calzada del Gigante
  3. El número nueve en una noche de verano
Kategoriak: Zientzia

Sistemas nerviosos: el sistema límbico

Ar, 2017-08-08 16:00

Ubicación de la amígdala en humanos

El sistema límbico no constituye una región encefálica separada, con entidad propia, sino que lo integran un conjunto de estructuras ubicadas en diferentes áreas que se hallan dispuestas, principalmente, a ambos lados del tálamo, justo por debajo del cerebro, y que establecen múltiples e intrincadas conexiones neuronales entre ellas. A este sistema pertenecen ciertas porciones de áreas tales como la corteza cerebral, los núcleos basales, el tálamo y el hipotálamo, por lo que incluye estructuras con origen en diferentes vesículas embrionarias (telencéfalo, mesencéfalo y diencéfalo).

El sistema límbico está implicado en numerosas funciones, como la génesis de las emociones, la motivación, la memoria a largo plazo, la olfacción, el comportamiento sociosexual y la supervivencia.

En el pasado también ha sido denominado cerebro paleomamífero o corteza paleomamífera, un nombre que tiene que ver con una concepción de la arquitectura encefálica basada en su antigüedad evolutiva. Según esa concepción, los componentes del encéfalo serían: (1) el encéfalo primitivo (o reptiliano), al que corresponden el tallo encefálico, el puente, el cerebelo, el mesencéfalo, los ganglios basales más antiguos y los bulbos olfatorios; (2) el encéfalo intermedio (o “mamífero antiguo”), al que corresponden las estructuras del sistema límbico; y (3) el encéfalo superior o racional (o “mamífero nuevo”), integrado por los hemisferios cerebrales y algunas áreas subcorticales. Aunque esa clasificación de las estructuras y sus funciones no está desencaminada, las denominaciones no se compadecen con la historia evolutiva real de las correspondientes áreas, porque la distinción entre “reptiliano”, “mamífero antiguo” y “mamífero nuevo” carece de la debida fundamentación. Los ancestros comunes de reptiles y mamíferos ya tenían un sistema límbico bien desarrollado y configurado de forma similar al actual. Y las aves, que evolucionaron de los dinosaurios en la misma época en que aparecieron los mamíferos también tienen un sistema límbico bien desarrollado.

Uno de los componentes más importantes de este sistema es la amígdala, una estructura subcortical doble (una en cada hemisferio) que se encuentra por debajo del lóbulo temporal. Desempeña funciones importantes en el procesamiento de la memoria, la toma de decisiones y las reacciones emocionales. Es de especial importancia su rol en el procesamiento de señales que generan miedo. La amígdala activa el sistema de estrés de lucha o huida controlado por el hipotálamo y que permite preparar al organismo para que adopte uno de esos dos comportamientos. Aunque la decisión relativa a la adopción de uno de ellos es posterior y corre a cargo de la corteza, el sistema activado por la amígdala permite que, sea cual sea, la respuesta se produzca con la máxima intensidad ya que hace que el organismo disponga de abundante energía y oxígeno para ello.

El hipotálamo mantiene una intrincada red de relaciones con las áreas corticales superiores y con el resto del sistema límbico, principalmente con la amígdala. Juega, como ya vimos en una anotación anterior, un papel clave en la coordinación de diferentes respuestas a cargo del sistema nervioso autónomo y el sistema hormonal. Y es, como acabamos de ver, el centro que desencadena las acciones propias de la respuesta de lucha o huida que activa la amígdala.

La corteza superior también juega un papel importante en el desarrollo de comportamientos en los que está implicado el sistema límbico. Si bien este último desencadena acciones fisiológicas rápidas en respuesta a señales que le llegan directamente, la corteza cerebral interviene para hacer una valoración precisa de la información que ha desencadenado la primera respuesta, y también para dar lugar a la secuencia de respuestas motoras adecuadas. Las respuestas consistentes en atacar o huir de un adversario, desplegar la actividad de emparejamiento o la expresión de emociones pueden ser inducidos por el sistema límbico, pero la valoración precisa de su conveniencia e intensidad y la ejecución de las órdenes motoras que dan lugar a los movimientos que las desarrollan son tareas propias del cerebro. Un ejemplo ilustrativo del papel de la corteza en determinadas respuestas en las que participa el sistema límbico es su intervención en la génesis de la sonrisa. La secuencia estereotipada de movimientos que la producen está preprogramada en la corteza cerebral y, en determinadas circunstancias, el sistema límbico puede invocarla para dar lugar a su expresión de forma involuntaria. Pero como sabemos, también podemos ejecutar la misma secuencia de forma voluntaria como consecuencia de una decisión consciente como, por ejemplo, al posar para una fotografía.

Otra vertiente importante de la actividad del sistema límbico es su implicación en el refuerzo o supresión de comportamientos que han sido, respectivamente, placenteros o desagradables. Las regiones del sistema límbico implicadas en esas funciones se denominan centros de recompensa o de castigo, porque su estimulación provoca sensaciones placenteras o desagradables. Los centros de recompensa son especialmente abundantes en áreas que intervienen en actividades tales como la alimentación, la bebida y la actividad sexual, razón por la cual beber, comer y practicar sexo son actividades que reportan placer.

Fuentes:

Eric R. Kandel, James H. Schwartz, Thomas M. Jessell, Steven A. Siegelbaum & A. J. Hudspeth (2012): Principles of Neural Science, Mc Graw Hill, New York

Lauralee Sherwood, Hillar Klandorf & Paul H. Yancey (2005): Animal Physiology: from genes to organisms. Brooks/Cole, Belmont.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Sistemas nerviosos: el sistema límbico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Sistemas nerviosos: el sistema central de vertebrados
  2. Sistemas nerviosos: el sistema periférico de vertebrados
  3. Sistemas nerviosos: el tálamo y el hipotálamo
Kategoriak: Zientzia

Una cuestión de movimiento

Ar, 2017-08-08 11:59

Hemos visto que durante la década de 1840 muchos científicos reconocieron que el calor no es una sustancia sino una forma de energía que puede convertirse en otras formas. James Prescott Joule y Rudolf Clausius fueron un paso más allá. El calor puede producir energía mecánica, y la energía mecánica puede producir calor; por lo tanto, razonaron, la “energía calorífica” de una sustancia es simplemente la energía cinética de sus átomos y moléculas. Esta idea, que constituye la base de la teoría cinético-molecular del calor, es mayormente correcta.

Sin embargo, y a pesar de lo que pueda parecer leyendo los libros de texto habituales, donde parece que desde que Dalton propone la hipótesis atómica en 1805, ésta es inmediatamente aceptada, la idea de átomos y moléculas tuvo tantos partidarios como detractores a lo largo en el siglo XIX e incluso en el siglo XX [1]. Las moléculas, como sabes, son las partes más pequeñas de una sustancia, y están compuestas de átomos, que son las partes más pequeñas de un elemento. Si admites su existencia ideas como la homeopatía se convierten inmediatamente en absurdos [2] y otras, como las leyes de proporción de la química, se vuelven lógicas.

Volviendo a las ideas de Joule y Clausius, si esos pedacitos de materia realmente existieran, serían demasiado pequeños como para poder observarlos incluso con los más poderosos microscopios. Como los científicos no podían observar las moléculas, no podían confirmar directamente la hipótesis de que el calor es energía cinética molecular. Por lo tanto, recurrieron a la forma indirecta de comprobar la plausibilidad de la hipótesis, que siempre es útil: derivaron de esta hipótesis las predicciones sobre el comportamiento de grandes muestras de materia mensurables, y luego comprobaron estas predicciones con experimentos [3].

Por razones que se harán evidentes según avancemos en esta serie, es más fácil comprobar las predicciones de la hipótesis atómica observando las propiedades de los gases. La consecuencia última de estos desarrollos en la segunda mitad del siglo XIX, la teoría cinética de los gases, es uno de los últimos grandes éxitos de la mecánica newtoniana.

Una de las características más fáciles de medir de un gas confinado es su presión. La experiencia que tenemos con globos y neumáticos hace que la idea de la presión del aire parezca obvia. Pero hay sutilezas importantes. Una implica la presión que ejerce el aire que nos rodea.

En su libro sobre mecánica, Discorsi e Dimostrazioni Matematiche Intorno a Due Nuove Scienze (1638), Galileo llama la atención sobre el hecho de que las bombas de pistón no pueden elevar el agua más de 10 metros. Este era un hecho muy conocido en la época, ya que se usaban este tipo de bombas volumétricas para sacar agua de pozos o para evacuar el agua de las minas. Si recordamos, esta fue la motivación primera para el desarrollo de las máquinas de vapor.

Pero, ¿por qué solo 10 metros? Para empezar, ¿por qué funcionaban siquiera las bombas?

En las próximas entregas observaremos las propiedades de un gas simple para, posteriormente, intentar explicar el origen de las propiedades de los gases además de sus consecuencias prácticas y, además, el de las leyes de la termodinámica basándonos solo en la teoría cinética. Todo ello con las matemáticas de primaria.

Notas:

[1] Incluso hubo premios Nobel de química, como Ostwald, que negaron la existencia de átomos y moléculas hasta que se conocieron los resultados de los experimentos de Perrin en 1908 que probaban que la teoría de Einstein sobre el movimiento browniano, basada precisamente en la existencia de moléculas, era correcta.

[2] Fue la indefinición del XIX sobre la cuestión atómica una de las patas que permitieron la popularización de esta, hoy ya sí con todas letras, estafa. Las otras dos patas fueron el desconocimiento de la existencia del efecto placebo y el hecho estadístico de que la mayor parte de las personas que enferman se curan por sí mismas (hay cientos de miles de resfriados cada año por cada colangiocarcinoma, por ejemplo). La homeopatía es una práctica iniciada en el desconocimiento que hoy se mantiene basada en el negocio y en la ignorancia. Si admites la existencia de átomos y moléculas, automáticamente el gasto en estudios sobre los efectos de la homeopatía es tan lógico como el gasto en enviar sondas a Saturno a buscar botijos que orbiten el planeta. En ambos casos las base teórica es igualmente absurda.

[3] Como hemos apuntado en la nota [1] hasta que no se pudieron hacer predicciones que eran ciertas si, y solo si, la hipótesis atómica era correcta, como las que se derivan de la teoría del movimiento browniano de Einstein, ningún resultado fue concluyente.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Una cuestión de movimiento se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Se intuye la conservación de la energía (1)
  2. La fe en las leyes de conservación
  3. Potencia y eficiencia de una máquina
Kategoriak: Zientzia

Un alelo para las gafas de color de rosa

Al, 2017-08-07 16:00

Hay una variante alélica de la región promotora del gen del transportador de serotonina (5-HTTLPR) que está asociada con una diferencia a la hora de reparar en unas imágenes u otras, dependiendo de su contenido afectivo, positivo o negativo.

Vayamos por partes. La serotonina es un neurotransmisor, o sea, una molécula mensajera que interviene en las conexiones sinápticas entre neuronas en ciertas vías nerviosas. En otras palabras, es una molécula que una neurona (presináptica) vierte al espacio existente entre ella y la neurona contigua (hendidura sináptica), y se une a unos receptores que hay en la membrana de esta segunda neurona (postsináptica); una vez unida a su receptor, da lugar a los efectos correspondientes. Lo que aquí nos interesa es que el neurotransmisor no permanece permanentemente unido al receptor, sino que se libera del mismo y vuelve a quedar en la hendidura sináptica. Por otro lado, en la neurona presináptica (la que ha vertido el neurotransmisor a la hendidura sináptica) hay unas proteínas transportadoras, que lo recuperan y lo introducen de nuevo en la neurona; de esa forma se recicla y se puede volver a utilizar.

Pues bien, la variante alélica a que hacemos referencia aquí da lugar a que unos individuos tengan transportadores de serotonina diferentes de los que tienen otros. Los individuos homocigóticos para el alelo largo (LL) tienen una tendencia a fijarse y procesar material de contenido afectivo positivo, a la vez que evitan el negativo. Podría decirse, si se permite la metáfora cursi, que tienden a ver la vida de color de rosa. Ese rasgo está ausente en quienes poseen el alelo corto (SS o LS). Al parecer, los homocigóticos para L producen una proteína transportadora más activa que los otros individuos y como consecuencia de ello, reciclan más rápidamente la serotonina y la ponen antes a disposición de las neuronas presinápticas en los circuitos neuronales en los que participan. De esa forma esas neuronas presinápticas disponen de más serotonina. Y son quienes tienden a fijarse en las cosas buenas quienes poseen el alelo largo de la región promotora en cuestión. En definitiva, el sesgo que conduce a fijarse en un tipo de contenidos u otros y procesarlos está asociado con un polimorfismo genético común. En otras palabras, una actitud que puede influir en la visión más o menos optimista que tengamos de las cosas parece que tiene sustrato genético.

Por otra parte, que quienes tienen el alelo LS o SS tiendan a fijarse más en los aspectos desfavorables de las cosas es un problema, porque sufren neurosis, desórdenes emocionales y depresiones con más facilidad que los que se fijan en los aspectos favorables. Un aspecto colateral, pero muy importante de este asunto es que las mujeres tienen en general más receptores postsinápticos de serotonina pero menos transportadores. Como consecuencia de ello, reciclan este neurotransmisor a menor velocidad, lo que hace que su disponibilidad en la neurona presináptica sea menor. Y resulta que las mujeres tienen una mayor predisposición que los hombres a sufrir depresión.

Fuente: Elaine Fox, Anna Ridgewell & Chris Ashwin (2009): Looking on the bright side: biased attention and the human serotonin transporter gene. Proceedings of the Royal Society B 276: 1747-1751

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Un alelo para las gafas de color de rosa se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Nacidos para creer?
  2. Las recetas del franciscano y “El nombre de la rosa” (y 3)
  3. Una nueva diana terapéutica para el neuroblastoma
Kategoriak: Zientzia

Todo lo que se puede medir en un río

Al, 2017-08-07 11:59

El grupo de investigación Ecología de ríos/Stream ecology del Departamento de Biología Vegetal y Ecología de la UPV/EHU es un grupo especializado en el estudio del funcionamiento de los ríos, constituido por expertos en múltiples áreas. Dentro del marco del proyecto europeo Globaqua, en el que participan más de 10 instituciones europeas, han realizado un amplio trabajo de revisión que ha tenido como fruto un artículo “en el que sintetizamos y clasificamos todos los procesos que se pueden medir en los ríos; explicamos cómo se pueden realizar las mediciones (métodos que existen en la literatura), cómo responden dichos procesos a diversos estresores ambientales, etc.”, explica Daniel von Schiller, uno de los autores del artículo. Se trata de una “proposición que plantea un nuevo marco de trabajo muy apropiado tanto para investigadores como para gestores”, manifiesta.

Según constatan en el artículo, “tal y como marca la Directiva Marco del Agua, los ecosistemas de los ríos se deberían evaluar tanto desde el punto de vista de su estructura como de su funcionamiento, porque así se obtiene una mejor estimación del estado ecológico de un río”. El investigador hace una analogía con el cuerpo humano: “Si en un enfermo solo se mira si tiene corazón, pulmones y riñones, pero no se miden el pulso del corazón, cuánto volumen de aire respira o qué filtran los riñones, no se evalúa bien el estado de salud del paciente o en nuestro caso el estado ecológico del ecosistema que se está midiendo”.

Actualmente, las medidas que marcan los protocolos para saber cuál es el estado ecológico de los ríos son estructurales (relacionadas con la forma del canal, calidad del agua o composición de las comunidades biológicas): medidas de comunidades, de contaminantes, de temperatura, de concentración de nutrientes, etc. El funcionamiento de un ecosistema, sin embargo, se define como el conjunto de procesos que regulan tanto los flujos de materia como los flujos de energía dentro de un ecosistema. Los investigadores proponen, en ese sentido, toda una serie de medidas de funcionamiento complementarias, relacionadas con procesos de metabolismo, de descomposición de la materia orgánica, de ciclado de nutrientes, de dinámica de contaminantes y de dinámica de las comunidades fluviales.

En el estudio, además de recopilar métodos de medida de los diferentes procesos encontrados en la bibliografía, los han clasificado en función de variables como dificultad, complejidad, costes, escalas espaciales y temporales de medida, etc. “Por último —explica Daniel von Schiller—, hemos realizado un estudio exhaustivo en la literatura de las respuestas de los diferentes procesos a estresores ambientales de origen antropogénico (tales como contaminación, canalizaciones, acidez, etc.)”.

Como conclusión, el investigador manifiesta que “es la primera vez que se sintetiza todo lo que se puede medir en cuanto a procesos en ríos, y no solo presentamos qué se puede medir, sino también presentamos por qué, cómo y qué ventajas tiene un proceso frente a otro, y además cómo responde a estresores”. El objetivo de los investigadores ha sido crear una herramienta con la que puedan trabajar tanto personal investigador como gestor. El equipo, además, está ya en contacto con diferentes agentes y organismos relacionados con el control de aguas, entre las que se encuentra la Agencia Vasca del Agua – URA, para poner en marcha un novedoso proyecto de implementación de medidas e índices funcionales en ríos.

Referencia:

Daniel von Schiller et al. (2017).. “River ecosystem processes: A synthesis of approaches, criteria of use and sensitivity to environmental stressors”.. Science of the Total Environment. Vol. 596–597. Pages 465–480.. DOI: 10.1016/j.scitotenv.2017.04.081

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Todo lo que se puede medir en un río se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Las cartas de Darwin: ¡La geología por encima de todo!
  2. Un nuevo mecanismo de resistencia antifúngico
  3. El análisis del supercúmulo “El Gordo” limita qué puede ser la materia oscura
Kategoriak: Zientzia

La parábola del coche eléctrico

Ig, 2017-08-06 11:59

El XX parecía destinado a ser el siglo de los vehículos eléctricos. Otras muchas facetas de la actividad industrial, urbana y doméstica se vieron afectadas por la electrificación en ese siglo. No así los automóviles. El primer vehículo eléctrico del que se tiene noticia fue obra del químico británico Robert Davidson. Lo fabricó en Aberdeen en 1837. En 1842 construyó otro con una batería de zinc, llamado Galvani, que se desplazaba a 4 millas por hora. El zinc que consumía era cuarenta veces más caro que el carbón que había que quemar en una máquina de vapor para conseguir el mismo resultado y, en todo caso, no era de ninguna utilidad. En 1884 Thomas Parker construyó en Londres el primer coche eléctrico de baterías recargables –un prototipo, en realidad- y en 1888 Andreas Flocken creó en Alemania el Flocken Elektrowagen, considerado el primer coche eléctrico verdadero de la historia. A partir de entonces se empezaron a fabricar industrialmente y llegaron a ser bastante populares por su fácil manejo y comodidad.

A finales del XIX había en Londres una amplia flota de taxis eléctricos conocidos con el nombre de “colibríes”. El Comisionado de la Policía Metropolitana aprobó su uso para hacer frente al creciente problema de tráfico, ya que ocupaban la mitad de espacio que los coches de caballos. Taxis similares circularon por París, Berlín y Nueva York. A comienzo del siglo XX había en los Estados Unidos más de treinta mil coches eléctricos registrados. Eran mucho más populares que los de gasolina, menos ruidosos y no contaminaban el aire de las ciudades. Sin embargo, en poco más de una década la fabricación de esos coches se redujo hasta cesar. Los conductores de los coches de caballos londinenses lanzaron una intensa campaña haciendo publicidad de las averías y accidentes de sus rivales eléctricos hasta conseguir sacar del mercado a la London Electric Cab Company. Los coches eléctricos tuvieron algunos problemas técnicos, es cierto, pero fueron exagerados por sus rivales, que se esforzaron por mostrar a sus nuevos competidores bajo la peor apariencia posible.

Al mismo tiempo, el descubrimiento de grandes reservas de petróleo hizo que el precio de éste se desplomase, y Henry Ford empezó a vender coches de gasolina a la mitad de precio que los eléctricos. La construcción de mejores carreteras en Norteamérica incentivó los desplazamientos de larga distancia en automóvil, algo que no estaba al alcance de los coches eléctricos por su escasa autonomía y excesivo tiempo necesario para recargar las baterías. La introducción en 1912 del motor de arranque eléctrico acabó por inclinar la balanza a favor del coche con motor de combustión interna. Así fue como este acabó siendo el que ganó el siglo que, al comienzo, iba a ser del motor eléctrico.

El prematuro fracaso de los coches eléctricos es una parábola que ilustra una de las dificultades más sorprendentes que afectan al desarrollo de ciertas novedades. Hay innovaciones supuestamente beneficiosas que no consiguen abrirse camino en el momento en que se intentan por primera vez. Para que la novedad tenga éxito deben darse, de forma simultánea, determinadas condiciones. En caso contrario, la experiencia está abocada al fracaso. En otras palabras: no basta con buenas ideas, hace falta, además, que las circunstancias acompañen. Es posible que en el pasado se quedasen en el cajón o la estantería ideas excelentes que tuvieron la mala fortuna de nacer antes de tiempo. Esa es la razón por la que se desarrollan hoy programas para recuperar buenas ideas que, cuando surgieron, no tenían el terreno abonado pero que quizás lo tengan en la actualidad.

—————————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

————————

Una versión anterior de este artículo fue publicada en el diario Deia el 21 de mayo de 2017.

El artículo La parábola del coche eléctrico se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Gilbert, el campo y lo eléctrico
  2. La diferencia de potencial eléctrico
  3. El misterio del pez eléctrico monofásico*
Kategoriak: Zientzia

Arte & Ciencia: La ciencia como herramienta del arte

La, 2017-08-05 11:59

El arte y la ciencia son dos formas de conocimiento aparentemente alejadas, en gran medida consecuencia de la especialización profesional y la educación compartimentada. Del estudio de esta impostada separación surgió el estereotipo de las dos culturas, las ciencias y las humanidades, para referirnos a esa brecha de conocimiento. La realidad es que la ciencia y el arte sí están conectadas y que ninguna forma de conocimiento es impermeable a otra. Por poner algunos ejemplos: ¿Cómo podría crearse una obra plástica sin las técnicas propiciadas por la ciencia? ¿Cómo podríamos interpretar la elección de materiales?

Estas y otras cuestiones relacionadas furon tratadas por destacados profesionales -artistas, ilustradores, filósofos y científicos- que han puesto el foco en ese difuso trazo que une la ciencia y el arte. El ciclo Ciencia & Arte se desarrolló, bajo la dirección de Deborah García Bello, a lo largo de cuatro jornadas que se celebraron los jueves días 6 y 27 de abril y 11 y 25 de mayo de 2017 en el auditorio del Museo Guggeheim Bilbao.

Esta actividad de la Cátedra de Cultura Científica de la UPV/EHU se enmarca en el programa TopARTE que conmemora el XX Aniversario del Museo Guggenheim Bilbao.

Jornada 4. 2ª conferencia.

Déborah García Bello es investigadora de la relación entre arte y ciencia y divulgadora científica: La ciencia como herramienta del arte.

Las colaboraciones que existen entre artistas y científicos

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Arte & Ciencia: La ciencia como herramienta del arte se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Arte & Ciencia: Analogías entre el arte y la ciencia como formas de conocimiento
  2. Arte & Ciencia: Cómo descubrir secretos que esconden las obras de arte
  3. Arte & Ciencia: La importancia de la ciencia para la conservación del arte
Kategoriak: Zientzia

Orriak