Subscribe to Cuaderno de Cultura Científica feed
Un blog de la Cátedra de Cultura Científica de la UPV/EHU
Updated: 48 min 28 sec ago

Polarizadores y el triunfo de la hipótesis ondulatoria

Tue, 2019/04/16 - 11:59
Fuente: Polaroid / Safilo

Los estudios científicos sobre la polarización de la luz continuaron a lo largo del siglo XIX. Por ejemplo, la forma en que el espato de Islandia separa un haz de luz no polarizada en dos haces polarizados se muestra en la de abajo y es una representación que conceptualmente data originalmente de esa época. Sin embargo, las aplicaciones prácticas se vieron frustradas, principalmente porque las sustancias polarizadoras como el propio espato de Islandia eran escasas y muy frágiles.

Fuente: Cassidy Physics Library

Uno de los mejores polarizadores era el cristal sintético herapatita, sulfato de yodo-quinina. Decimos sintético porque se descubrieron de forma accidental en 1852 cuando un estudiante añadió yodo a la orina de un perro al que habían suministrado quinina y observó que aparecían unos cristales verdosos. El responsable del laboratorio, William Bird Herapath, estudió los cristales al microscopio. Encontró que los cristales de herapatita en forma de aguja absorbían la luz que está polarizada en la dirección del eje largo del cristal y absorben muy poca de la luz polarizada en una dirección perpendicular al eje largo.

Los cristales de herapatita eran tan frágiles que parecía que no había forma de usarlos. Pero en 1928, Edwin H. Land, cuando aún era un estudiante de primer curso en la universidad, inventó una lámina de plástico que llamó “Polaroid”. Este primer polarizador era una película transparente de nitrocelulosa en la que había incrustado muchos pequeños cristales de herapatita de tal manera que, cuando se estiraba el plástico, los cristales en forma de aguja se alineaban en una dirección. Por lo tanto, todos interactuaban con la luz incidente de la misma manera.

Algunas de las propiedades de un material polarizador se pueden comprobar fácilmente. Por ejemplo, se pueden obtener dos superficies de polarización de las lentes de un par de gafas de sol polarizadas, o de las gafas “tridimensionales” usadas en los cines. Si sostenemos una de las lentes frente a una fuente de luz y miramos esta primera lente a través de la segunda, comprobamos que al girar la primera lente la intensidad de luz sube y baja alternativamente. Encontraremos que una rotación de 90º nos lleva de la intensidad másxima a la mínima.

Fuente: Wikimedia Commons

¿Cómo se puede explicar este efecto? La luz que incide en la primera lente, o superficie de polarización, originalmente no está polarizada, es decir, es una mezcla de ondas polarizadas en diferentes direcciones, como ya vimos. La primera lente transmite solo las ondas que están polarizadas en una dirección y absorbe el resto. La onda transmitida que va hacia la segunda hoja ahora está polarizada en una dirección. Siempre que esta dirección coincida con la dirección de polarización de la segunda superficie, la onda no será absorbida por la segunda lente. Sin embargo, si la dirección es perpendicular a la dirección de polarización, la luz polarizada no pasará a través de la segunda lente, sino que será absorbida.

Como conclusión general de lo que hemos visto sobre las ondas de luz, vemos que los efectos de interferencia y difracción requerían un modelo de onda para la luz. Para explicar los fenómenos de polarización, el modelo de onda se tuvo que hacer más específico; la polarización podría explicarse solo si las ondas de luz son ondas transversales. En conjunto, este modelo para la luz explicaba muy satisfactoriamente todas las características de la luz consideradas hasta principios del siglo XX.

Pero, hay una nota disonante, ¿verdad? ¿En qué medio se transmiten las ondas de luz que vienen del Sol o de la Luna o de las estrellas?

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Polarizadores y el triunfo de la hipótesis ondulatoria se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Polarización de la luz
  2. Tipos de ondas
  3. Del modelo imponderable a la hipótesis cuántica
Categories: Zientzia

Química atmosférica a la caza de la primera feromona humana

Mon, 2019/04/15 - 11:59
Imagen: Unsplash

¿Ha comprado usted alguna vez un perfume con feromonas con la esperanza de que le ayudase a ligar? O, mejor aun, ¿ha acudido a una de esas fiestas en las que los asistentes deben entregar al llegar una camiseta con la que hayan dormido varios días empaquetada en una bolsa hermética para que sea olisqueada a fondo por los participantes del sexo opuesto y así, en teoría, emparejarse con éxito? No me lo estoy inventando, estas cosas por lo visto existen.

Pues quizá haya usted salido de casa oliendo muy bien (o haya hecho un aporte apestoso a esa fiesta, qué sé yo) pero en cualquier casa, espero que no pagase demasiado por el componente feromónico porque, lo que es evidencia científica, nada de nada.

No sabemos cómo son las feromonas humanas

A día de hoy no se conoce todavía ningún compuesto químico que actúe en los seres humanos como feromonas, esas señales químicas principalmente olfativas que nuestros cuerpos generarían, supuestamente, para llevar a otros seremos humanos en principio, aunque no exclusavamente, del sexo opuesto a actuar de determinada forma para favorecer el éxito sexual y en definitiva reproductivo. Las hemos visto identificado en animales, pero en seres humanos, de momento, ni rastro.

Fue en 1959 cuando el bioquímico alemán Adolf Butenandt acuñó por primera vez el término feromona. Butenandt, que ya había ganado un Nobel de Química por su trabajo identificando y aislando las hormonas sexuales, publicó en ese año sus trabajos basados en la polilla de la seda Bombyx more y la estructura química de la sustancia que le sirve para atraer a sus congéneres.

Tras las polillas llegaron las hormigas, las abejas, los ratones… También se observó que las feromonas no tienen solo una finalidad sexual. Las abejas por ejemplo son capaces de generar señales químicas que sirven para dar la alarma a sus compañeras cuando hay algún peligro cerca. Salen de las llamadas glándulas de Nasorov, que se encuentran bajo el abdomen de estos insectos. Otras feromonas, utilizadas entre otras por las hormigas, sirven para indicar a los demás miembros de un grupo el camino hasta un lugar donde hay alimento, de forma que puedan ir a por él y transportarlo entre todas hasta el hormiguero.

Pero en humanos, de momento, no se conoce una feromona concreta que cumpla alguno de estos fines o ningún otro. Algunos estudios han sugerido que si bien no sabemos aun cuáles son esas sustancias o cómo actúan, deben existir y actuar de alguna forma y damos por cierta su existencia, pero algunos análisis críticos consideran poco sólidos esos estudios y por tanto sus conclusiones.

Imagen: Unsplash

 

Estudiar la química del cuerpo como la química del aire

En estas semanas, un nuevo enfoque de estudio está tratando de averiguar si es posible encontrar estas esquivas sustancias en los seres humanos. Se trata de aplicar una técnica que emplean los químicos atmosféricos, llamada reacción de transferencia de protones – estectrometría de masas o PTR-MS por sus siglas en inglés, a la química de nuestro cuerpo para hallar las ansiadas feromonas humanas.

Cuenta este artículo en la revista Science que el químico climatólogo Jonathan Williams, del Instituto de Química del Max Plank, es uno de los participantes en las reuniones sobre comunicación química entre seres humanos que se han celebrado en la Royan Society para explicar cómo esta técnica que se utiliza para hallar trazas de determinadas sustancias químicas en la atmósfera podría llegar al rescate de este área de investigación que necesita un nuevo punto de vista para seguir adelante.

Un área que está en crisis en parte por la escasa financiación que recibe en general: el olfato es uno de los sentidos que menos atención e interés recibe por parte de las investigaciones en fisiología, los estudios al respecto suelen ser pequeños y por tanto estadísticamente endebles, y por otro lado el cuerpo humano emite cientos de sustancias volátiles susceptibles de ser olfateadas por otra persona, la comunicación química se mezcla con todas las demás formas de comunicación entre seres humanos y las posibles respuestas en formas de comportamiento, también. Los estudios realizados hasta ahora se han limitado a pedir a esos pocos participantes que duerman varios días con la misma camiseta o a colocarles compresas absorbentes bajo las axilas.

La PTR-MS puede aportar mucha más información. Esta técnica consiste en transferir un protón a esos compuestos volátiles y luego analizar su masa por la forma en que se desplazan en un campo eléctrico. Esto permite medirlos en tiempo real e identificar aquellos que, ante un determinado estímulo o comportamiento, aumentan en cantidad o sufren algún cambio.

Olemos diferente si nos reímos, nos tensamos o nos asustamos

Williams cuenta que se dio cuenta del potencial de esta técnica hace años tras analizar la composición química del aire alrededor de una hinchada de aficionados al fútbol durante un partido. “Podíamos averiguar el comportamiento de la gente haciendo un seguimiento de las trazas de sustancias químicas a su alrededor”, asegura. Por ejemplo, era posible saber cuándo el partido había llegado al descanso porque los niveles de acetonitrilo, un componente del humo del tabaco, alcanzaban el máximo rápidamente. En el descanso es cuando la mayoría de la gente aprovecha para fumarse un cigarro.

Imagen: Unsplash

¿Sería posible ‘oler’ en el aire la euforia tras un gol del equipo local? Aquel partido en concreto no permitió a Williams responder a esa pregunta ya que terminó con un empate a cero. El científico decidió irse a olisquear una sala de cine, y allí descubrió que los espectadores de una comedia emiten sustancias químicas distintas que los que ven una película de suspense, y que esas emisiones cambian cuando el guión da un giro inesperado. “Viendo Los Juegos del Hambre era posible determinar el momento en el que empieza la gran pelea final”, asegura. En un estudio publicado al respecto contaba que los niveles de dióxido de carbono subían, seguramente debido a la aceleración de la respiración del público, así como los de isopreno, que podían provenir de una mayor tensión muscular.

Otro científico atmosférico, Ben Langford, del Centro de Ecología e Hidrología en Edimburgo, quedó tan intrigado por estos resultados que unió fuerzas con el psicólogo Craig Roberts, de la Universidad de Stirling, en el Reino Unido para profundizar en estos hallazgos. Entre los dos han realizado estudios, aun pendientes de publicar, en el que ponen a los voluntarios escenas de películas mientras analizan el aire bajo sus axilas. Ya han identificado algunos compuestos que varían durante las escenas de terror y quieren seguir investigando en esa línea. Aun no está claro si esos cambios suponen realmente una señal química de algún tipo.

Pero es interesante que se centren en las sustancias químicas en relación con el miedo o la agresión, ya que durante décadas las investigaciones sobre feromonas humanas se han centrado en señales relacionadas con el comportamiento sexual, que quizá sean precisamente más difíciles de encontrar.

No son los únicos que han decidido cambiar el amor por la agresividad en este campo. En otro estudio mencionado durante estas reuniones, los científicos han recogido sudor de soldados israelíes antes de su primer salto en paracaídas con sudor recogido en otro momento de sosiego. Quizá buscar cambios alrededor de esos momentos en los que por la mente se pasan pensamientos de vida o muerte sea la mejor oportunidad de encontrar estas esquivas señales químicas.

Imagen: Pixabay

Eso sí, puede que esa señal no sea la producción de una feromona específica como las que conocemos en insectos o en algunos mamíferos. Quizá sea una serie de complicados cambios en la abundancia y concentración de varias o muchas sustancias distintas. Precisamente lo que los científicos atmosféricos están acostumbrados a estudiar. Quizá esto haga por fin avanzar este campo de investigación.

Claro que, de momento… dejen la colonia de feromonas en casa.

Referencias:

Can atmospheric chemists rescue the stalled quest for a human pheromone? – Science

Adolf Butenandt—Nobel Prize for Chemistry – Mayo Clinics Proceedings

Feromona – Wikipedia

Suspense in the movie theatre air: Cinemagoers’ exhaled breath reveals the scene that is playing – Phys.org

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo Química atmosférica a la caza de la primera feromona humana se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. De la materia a la vida: ¿Química? ¡Química!, por Jean-Marie Lehn
  2. Pensando la química matemáticamente
  3. Los cimientos de la química neumática al estilo van Helmont (y 3)
Categories: Zientzia

Ciudades sin coches

Sun, 2019/04/14 - 11:59
Calle Benito Corbal (Pontevedra). Imagen: Wikimedia Commons

La introducción en 2003 de tarifas de congestión –pago por entrar, circular o salir del centro de la ciudad- en Londres tuvo una gran repercusión, pero no ha sido un caso aislado; cada vez más ciudades toman medidas para reducir el tráfico rodado de vehículos de combustión interna. En algunas ciudades se ha llegado, incluso, a suprimirlo en las áreas urbanas céntricas salvo para determinadas excepciones.

El ferroviario -metro o tren- es el medio de transporte que más personas desplaza por unidad de tiempo y por unidad de superficie urbana utilizada; en esos términos transporta diez veces más pasajeros que el automóvil particular. Y otras formas de movilidad registran eficiencias intermedias entre esos dos extremos. La contaminación es otro factor a considerar; a la provocada por el tráfico rodado -que incluye carbonilla, óxidos de nitrógeno y monóxido de carbono- se atribuyen, al menos, 184.000 muertes prematuras cada año en el mundo, la mayoría producidas por enfermedades cardíacas o pulmonares. Y a los accidentes provocados por automóvil se debe un millón de muertos anuales, además de causar cerca de ochenta millones de heridos.

El uso del coche reduce de forma considerable la actividad física, uno de los grandes problemas de salud de nuestro tiempo. Y hay estudios que sugieren que la exposición al ruido del tráfico eleva la probabilidad de sufrir depresión en adultos y genera problemas de atención en niños.

Las medidas que se han tomado para limitar el uso de automóviles en grandes ciudades han arrojado resultados positivos. El 14 de septiembre del año pasado se celebró en París el cuarto día sin coches y la contaminación por dióxido de nitrógeno en el entorno de las vías de mayor tráfico se redujo hasta en un 40%. En Bruselas, el hollín atmosférico se redujo en un 80% ese mismo día. Y tras implantar en Estocolmo la tasa de congestión en 2006, se registró un descenso en la incidencia de asma infantil.

El grado de actividad física que desarrollan los habitantes de las zonas en que se ha limitado el tráfico rodado también ha aumentado. A partir de 1960 Copenhague empezó a limitar el uso de automóviles en el centro urbano: en 2015 prohibió el aparcamiento en el centro de la ciudad, convirtió muchas vías rodadas en carriles-bici o peatonales, y aumentó la red de vías férreas; desde entonces no ha dejado de aumentar el número de personas que se desplazan en bicicleta por la ciudad y en la actualidad llegan al 60%. De Pontevedra -una ciudad de 84.000 habitantes (65.000 en el casco urbano)- se dice que ha logrado domesticar el tráfico; a partir de 1999 ha aumentado las zonas peatonales, ha ampliado las aceras, ha reducido a 30 km/h la velocidad máxima en todo el ámbito urbano y ha creado una red de nueve aparcamientos disuasorios con 16.000 plazas libres. Hoy más del 80% de escolares caminan hasta su centro de enseñanza y las muertes por accidente de tráfico han desaparecido.

Como es lógico, las limitaciones al tráfico rodado urbano han provocado la oposición de diversos sectores. Muchos ciudadanos se oponen porque entienden que se trata de limitaciones inaceptables a la libertad individual. Pero a esos argumentos se oponen los que se fundamentan en el valor de preservar la salud. Para mitigar la oposición se ha optado en muchos casos por aplicar las limitaciones e forma gradual. De hecho, aunque el debate público se mueve en esas coordenadas, las alternativas que barajan los especialistas en movilidad urbana se refieren a modalidades de limitación del tráfico, medidas complementarias y plazos de implantación. Su conveniencia apenas se discute.

El artículo Ciudades sin coches se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El tamaño importa en organismos, empresas, ciudades y economías
  2. Los edificios y el mar
  3. Cerdos ferales
Categories: Zientzia

¿Cuál es la postura más aerodinámica en ciclismo?

Sat, 2019/04/13 - 11:59

Si has visto a ciclistas bajar un puerto de montaña, habrás notado que adoptan posiciones que parecen muy aerodinámicas. Lo hacen para rascar milésimas al crono. ¿Sirven para algo? Y de hacerlo, ¿cuál sería la mejor postura para conseguir más velocidad?

Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.

Edición realizada por César Tomé López

El artículo ¿Cuál es la postura más aerodinámica en ciclismo? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué pasa en tu cuerpo cuando te enamoras?
  2. ¿Hemos intentando contactar con extraterrestres?
  3. ¿Qué pasa en tu cerebro cuando duermes?
Categories: Zientzia

Energía oscura

Fri, 2019/04/12 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

Permítanme iniciar este escrito con un experimento imaginario. Supongamos que contamos con una manzana y la tiramos hacia arriba con cierta velocidad desde la superficie de la Tierra. Todos sabemos que ocurrirá después. La manzana ascenderá durante un tiempo, a medida que asciende la velocidad de la manzana disminuirá hasta llegar al punto álgido de su trayectoria en el que se parará. Todos hemos hecho este experimento en algún momento y entendemos perfectamente lo que ocurre. La atracción gravitatoria de la Tierra sobre la manzana ejerce una fuerza hacia abajo que se opone a la velocidad inicial de ésta. Esta fuerza produce una deceleración de la manzana hasta que se para en el punto más alto.

¿Pero qué pasaría si al repetir este experimento observásemos que la manzana llega hasta un punto y después se acelera y aumenta su velocidad ascendente hasta desaparecer en el cielo? Creo que estaremos todos de acuerdo en que si eso ocurriese nos sorprenderíamos un poco… Esto se debe, como digo, a que creemos que entendemos lo que ocurre en este experimento y no conocemos ninguna fuerza que empuje a la manzana hacia arriba. Pero permítanme que insista… ¿qué pasaría si lo observásemos? En ese caso, tendríamos que afrontar la realidad. Alguna de las suposiciones que habíamos hecho y que creíamos ciertas ha de ser incorrecta. ¿Pero cuál?

Antes de dejarnos llevar por el desasosiego causado por esta observación y de cuestionar nuestros conocimientos de física general y/o la validez de las ecuaciones de Newton, recordemos con cierto alivio que este era un experimento imaginario. Sin embargo, ilustra muy bien el estado de ánimo de la mayoría de la comunidad de científicos dedicados a la cosmología a finales del siglo pasado, en concreto en 1998. El origen de su preocupación no era una hipotética manzana voladora sino los resultados de ciertas observaciones cosmológicas realizadas por aquel entonces. Estas observaciones mostraban que nuestro universo no sólo se expande sino que se encuentra actualmente en un proceso de expansión acelerada. Esto es, la expansión del universo es cada vez más rápida hoy en día. Muchos cosmólogos se mostraron escépticos al principio con estos resultados esperando quizás, como en otros casos ha ocurrido, que la repetición de la observación diese lugar a otro resultado más acorde con nuestra intuición. Pero esto nunca ocurrió, de hecho, observaciones posteriores han corroborado este hallazgo hasta el punto que hoy en día prácticamente nadie las pone en duda. Pero, ¿porqué esperaba la comunidad científica otro tipo de resultado? La razón es simple; la situación es muy semejante al caso imaginario de la manzana.

La evolución del universo desde sus orígenes y su reciente entrada en un periodo de expansión acelerada. Fuente: Wikimedia Commons

Como todo el mundo sabe, el universo se inició con una gran explosión (el Big Bang) que dio lugar a la condición inicial de expansión cosmológica (la situación análoga a la velocidad inicial de la manzana). Por otro lado la acción gravitatoria de la materia en el universo es atractiva y por lo tanto parece lógico concluir que la expansión del universo se verá ralentizada por la acción de la gravedad de la misma forma que la velocidad de la manzana disminuye con el paso del tiempo. Es por esto por lo que uno esperaría que el universo se expandiese cada vez más despacio o incluso que pudiese llegar un momento donde esta expansión se detuviese iniciando así un proceso de colapso. Sin embargo, los datos indicaban lo contrario, el universo se encontraba inmerso en un período de expansión acelerada. Es decir, el universo parecía comportarse como la manzana en nuestro inquietante experimento imaginario, se expande de forma acelerada en contra de lo que esperaríamos. Este ha sido, sin lugar a dudas, uno de los descubrimientos más sorprendentes de la física y la cosmología en los últimos 50 años.

Una vez pasado el shock inicial no queda otro remedio que asumir el resultado, no tiene sentido negar la evidencia observacional. La comunidad científica se preguntó entonces cuál de los supuestos anteriores debe relajarse para poder acomodar los resultados dentro de un marco teórico coherente con estas observaciones. A continuación describiremos algunas de estas posibilidades.

En primer lugar una posibilidad clara es que las ecuaciones de gravedad, las ecuaciones de Einstein de la Relatividad General, no funcionen a estas escalas y por lo tanto deban ser modificadas de tal manera que esta aceleración aparezca de forma natural como producto de esta alteración.

Otra posibilidad es que las ecuaciones de Einstein estén perfectamente como están y que simplemente exista otro tipo de materia que de lugar a que el universo se expanda cada vez más rápido cuando ésta domina sobre las otras formas de materia más comunes. ¿Pero qué tipo de materia puede dar lugar a una gravedad repulsiva?

Esto puede parecer una locura, ya que nuestra intuición nos dice que esto no ocurre en la Naturaleza. Sin embargo una de las características que se puede ver estudiando las ecuaciones de la Relatividad General aplicada a la cosmología, es que la evolución del universo no sólo está marcada por la densidad de energía (la masa) de la materia, sino también por su presión. Si uno considera un material con una gran dosis de presión negativa (la presión negativa es similar a la tensión presente en las gomas elásticas, por ejemplo.), su efecto puede contrarrestar la usual atracción de la materia y dar lugar a este efecto de gravedad repulsiva.

Lo realmente interesante de esta historia es que la primera persona que propuso la existencia de este tipo de materia fue el mismo Einstein mucho antes de que se realizasen estas observaciones. Einstein postuló la presencia de un nuevo término en sus ecuaciones que designó con el nombre de constante cosmológica. Este término era necesario para encontrar un punto de equilibrio en el que el universo pudiese ser estático, algo que en 1917 parecía la única opción válida. En este punto de equilibrio las fuerzas de atracción de la materia común tendrían su contrapunto perfecto con el efecto repulsivo originado por este nuevo término en las ecuaciones. Esta idea fue, según cuentan, descrita por el mismo Einstein como – “Uno de los mayores errores en mi vida…” y con razón, ya que pocos años más tarde Edwin Hubble descubrió las primeras evidencias de la expansión del universo. Sin embargo, este término, repudiado por Einstein después de las observaciones de Hubble y por mucha gente ignorado durante largo tiempo, volvió a la primera línea de investigación cuando se descubrió la reciente (en escalas cosmológicas) aceleración del universo.

Sin embargo, la idea de incluir una constante cosmológica para satisfacer las observaciones de la expansión acelerada del universo no está exenta de problemas. Es importante darse cuenta que el valor de la constante cosmológica recibe contribuciones de cualquier componente de la energía de vacío. Sí, el vacío en física no es exactamente lo que comúnmente conocemos por vacío (ausencia de todo, tanto de masa, como de energía) sino que tiene propiedades análogas a los materiales, en particular tiene una energía y una presión asociadas a él. Esto es debido a que la mecánica cuántica nos enseña que ni siquiera el vacío está libre de las pequeñas fluctuaciones de los campos que viven en él y que dan lugar a las partículas que conocemos. Son precisamente estas fluctuaciones cuánticas las que dan al vacío unas características idénticas a la constante cosmológica. Por otro lado, todos los intentos por estimar esta contribución a la energía de vacío basados en nuestro conocimiento presente de la mecánica cuántica y la gravedad dan unos resultados que se alejan en muchos órdenes de magnitud de la cantidad observada. Un universo con una constante cosmológica mucho mayor sería totalmente incompatible con la formación de estructuras como las galaxias y nuestra existencia. Este resultado realmente embarazoso nos indica que posiblemente debamos recurrir a nuevas ideas a la hora intentar dar algún paso adelante en nuestro entendimiento de este fenómeno.

Las fluctuaciones cuanticas dotan al vacio de propiedades como densidad de energia o presion que determinan su efectos cosmologicos. Fuente: Wikimedia Commons

 

Una de las ideas nuevas que ha surgido en estos últimos años es la posibilidad de que no exista un solo valor de la constante cosmológica, sino un gran número de vacíos distintos con valores muy dispares de su energía de vacío, muchos de los cuales estarían dentro del rango de los valores observados. Esto sólo sería posible si la teoría fundamental diese lugar a muchos de esos vacíos. Lo interesante de esta idea es que la Teoría de Cuerdas (nuestro mejor candidato a una teoría fundamental de la gravedad cuántica) tiene precisamente esta propiedad y por lo tanto parece ser un buen candidato para acomodar este escenario.

Por otro lado existen otras maneras de obtener de forma efectiva la aceleración del universo mediante el diseño de una constante cosmológica variable. El interés de este tipo de modelos es su dinámica distinta a la constante cosmológica y a sus posibles implicaciones sobre el futuro del universo a largo plazo.

Todos estos modelos son conocidos con el nombre genérico de Energía Oscura. Este es el nombre que se ha elegido para describir el tipo de materia (o energía) que da lugar a esta aceleración del universo, sea esta debida a una constante cosmológica o a una variación temporal de la energía del vacío. Existen varios experimentos que actualmente buscan mediante distintas observaciones ampliar nuestro conocimiento sobre las propiedades de esta energía oscura. Estas observaciones serán cruciales para ayudarnos a discernir entre los múltiples escenarios que hemos comentado.

El origen de la Energía Oscura es un problema muy complejo que toca áreas tan diversas como la Cosmología, la Gravitación, la Física de Partículas de Altas Energías y Teoría de Cuerda; temas todos ellos bien representados en los grupos de investigación del Departamento de Física Teórica de la Facultad de Ciencia y Tecnología de la UPV/EHU. Estos grupos estudian diversos aspectos de la energía oscura tanto desde el punto de vista puramente teórico como en su vertiente más fenomenológica.

Es justo reconocer que no tenemos en este momento una idea clara de cuál puede ser el origen de esta misteriosa energía. No obstante, la historia de la Física está plagada de grandes misterios que nos han permitido, mediante su resolución, avanzar en nuestro conocimiento. Esperemos que este caso no sea una excepción.

Sobre el autor: Jose Juan Blanco-Pillado es Ikerbasque Research Professor en el Departamento de Física Teórica del Facultad de Ciencia y Tecnología de la UPV/EHU

El artículo Energía oscura se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Se intuye la conservación de la energía (1)
  2. Una fórmula para dominarlos a todos: La conservación de la energía y la ley de la palanca
  3. Un modelo que unifica energía y materia oscuras
Categories: Zientzia

Peces carnívoros, vegetarianos y la acuicultura insostenible

Fri, 2019/04/12 - 08:00

 

José Miguel Cerdá-Reverter

File 20190225 26171 1yv51ty.jpg?ixlib=rb 1.1Imagen:  Kosin Sukhum / Shutterstock

La sostenibilidad es la forma de asegurar las necesidades actuales sin comprometer las futuras, las de nuestras próximas generaciones. La acuicultura actual, que lleva a nuestra mesa gran parte del pescado que comemos, dista de ser sostenible.

Vamos al mar a capturar pequeños peces que no nos gusta comer para transformarlos en pienso con el que alimentar a las especies que sí nos gusta comer. Somos así de exquisitos. También, siguiendo prácticas paloelíticas, recolectamos (que no producimos) pequeños crustáceos para alimentar a las crías de los peces que cultivamos.

Pero cada vez que realizamos una transformación tenemos pérdidas. Entonces, ¿por qué no nos comemos el pienso directamente? Quitaríamos escalones del proceso y lo haríamos más efectivo, más sostenible.

No sé si llegará ese día, pero mientras tanto, seguiremos comiendo pescados que nos acerquen al esnobismo. Porque ¿quién comía antes salmón, dorada o lubina? Casi nadie, especialmente fuera de los eventos gastronómicos navideños. Que hoy podamos incluir estas especies en nuestra dieta es uno de los grandes logros de la acuicultura occidental, más preocupada por las cuotas de mercado que por la sostenibilidad de los procesos de producción.

A fin de cuentas, es el mercado quien ha seleccionado las especies que cultivamos y ha marcado la sostenibilidad del proceso. Aquellos precios prohibitivos del pasado prometían grandes rentabilidades. Sin embargo, gran parte de estos peces, antaño caros, son carnívoros y ocupan los niveles más altos de la cadena trófica. Por eso necesitan grandes cantidades de proteínas y aceites de pescado para crecer. Un alimento que se obtiene, a su vez, de otros peces que capturamos y transformamos en pienso. Es “como el pez que se muerde la cola”, nunca mejor dicho.

Conseguir peces vegetarianos como solución

Las especies comerciales, de momento, son las que son. Pero llevar estos peces al mercado de forma rentable supone un elevado esfuerzo científico y tecnológico.

Una de las soluciones que se ha implementado es la sustitución de las harinas y aceites de pescado utilizados en los piensos por sus homólogos vegetales. En esta búsqueda, se han realizado investigaciones con muchos tipos vegetales buscando siempre plantas con un elevado contenido proteico y aceites con una composición óptima.

Estamos intentando convertir a nuestras especies en vegetarianas. Pero ¿acaso les gusta este cambio? No. Si nos pasamos con el porcentaje de proteína vegetal, no les gusta el pienso, no crecen tan bien, sufren a nivel intestinal y pueden tener, incluso, trastornos reproductivos inducidos por la presencia de fitoestrógenos. De hecho, todavía no se ha podido llegar a la sustitución total. Y será difícil que se consiga en el futuro.

Tanques experimentales para la cría de peces. Imagen: Instituto de Acuicultura de Torre de la Sal

Además, ante esta estrategia, podríamos preguntarnos: ¿esquilmar las pesquerías de anchoveta peruana (una especie parecida a nuestro preciado boquerón, de donde provienen la mayor parte de las harinas de pescado de los piensos) es más sostenible que quemar la selva amazónica para plantar los vegetales que destinamos a los piensos? ¿Es ético utilizar las pesquerías y los excedentes de vegetales para alimentar a nuestros peces carnívoros en lugar de para paliar hambrunas?

Los intentos de sustitución y la inversión colateral en investigación no han venido de la mano de mejoras en sostenibilidad. Por el contrario, provocan un incremento en los precios de las harinas de pescado que encarece la producción piscícola a niveles insostenibles.

La variabilidad de las pesquerías, debida a factores ambientales como la corriente de El Niño de las costas del Pacífico Sur, producen cambios impredecibles en los precios de los harinas. Y este es el motivo real que nos ha llevado a echar mano de los vegetales en la fabricación de piensos, no la sostenibilidad, aunque muchos quieran vender la historia al revés. Sorprendentemente, el efecto colateral de optimizar el negocio podría ser un acercamiento a la sostenibilidad.

Cambios de cara al futuro

Los consumidores no tenemos mucho margen de acción para aumentar la sostenibilidad del proceso. Debemos decidir entre gastronomía y alimentación sostenible, es decir, entre comer un pescado que nos gusta más o aparcar nuestra exquisitez y elegir un pescado más sostenible en su producción, sin olvidar la calidad nutricional.

Optar por la segunda vía nos obligará a explorar el cultivo de nuevas especies, a ser posible herbívoras. Hoy por hoy, especies como la carpa o la tilapia podrían mostrar un mayor grado de sostenibilidad en su cultivo, dado que su dieta se basa en vegetales.

Si queremos seguir comiendo especies carnívoras, debemos seguir explorando fuentes alternativas de materias primas más sostenibles e intentar llegar al 100% de sustitución. Actualmente hay cuatro líneas incipientes que plantean la utilización de harinas de insecto, fitoplancton, subproductos de pesca y alimenticios y proteínas sintéticas de bacterias como ingredientes alternativos. La producción de microalgas o fitoplancton solo requiere agua, luz y abono.

Cilindros para el cultivo de microalgas o fitoplacton. Imagen: Instituto de Acuicultura de Torre de la Sal

Además, tendremos que mejorar la eficiencia alimenticia de nuestros peces, es decir, conseguir que con la misma cantidad de alimento sean capaces de crecer más y más rápido. Aquí, la selección genética y las técnicas biotecnológicas serán de gran ayuda.

Lo que sí está en nuestra mano es consumir pescado producido en zonas cercanas a nuestra localidad aprovechándonos de la trazabilidad del producto (conocemos el camino que sigue desde su nacimiento hasta su comercialización) que nos proporciona la acuicultura. Esto reduce la contaminación asociada al proceso productivo, un parámetro que también debería entrar en la ecuación de sostenibilidad.

La acuicultura está aquí para quedarse, que nadie lo dude. Ayuda a paliar la sobrepesca en los caladeros y nos aporta alimento saludable y de gran calidad. Pero está en manos de la ciencia profundizar en la investigación para aportar mayor sostenibilidad a los procesos productivos.The Conversation

Sobre el autor: José Miguel Cerdá-Reverter es investigador y director del IATS – CSIC, Instituto de Acuicultura Torre de la Sal (IATS – CSIC)

Este artículo fue publicado originalmente en The Conversation. Artículo original.

El artículo Peces carnívoros, vegetarianos y la acuicultura insostenible se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los peces en el río
  2. Peces capaces de respirar en aire y anfibios
  3. La regulación osmótica de los peces diádromos
Categories: Zientzia

El mapa del cólera de John Snow

Thu, 2019/04/11 - 11:59

A mediados del siglo XIX, la creencia general presuponía que el cólera se propagaba a través del miasma en el aire. La teoría de los microbios y su relación con las enfermedades aún no estaba establecida (Pasteur tardaría aún 10 años en realizar los experimentos que le darían validez) y los brotes de cólera que asolaban Londres hacia 1850 eran, para todos, un misterio. Pero un gráfico iba a cambiar aquella situación: un simple mapa, hoy considerado el origen de la epidemiología, realizado por John Snow.

Snow (antes de convertirse en personaje de Juego de Tronos) fue un médico nacido en 1813, célebre por su contribución al desarrollo de la anestesia. Pero además, era un tipo inquieto con una teoría: él pensaba que el cólera se propagaba, no a través del aire, sino por el agua contaminada. En aquella época, el sistema de alcantarillado y suministro de agua de Londres dejaba mucho que desear. El agua se repartía en pozos públicos desde los que los ciudadanos bombeaban su propio suministro para llevarlo a sus hogares. Por otra parte, a menudo los desagües se vaciaban en pozos negros bajo las viviendas, más que en tuberías de alcantarillado. El resultado… era hediondo. El olor de heces humanas y animales se combinaba con el de la basura podrida. No es de extrañar que algunos atribuyesen a ese “miasma” la capacidad de enfermar a cualquiera.

Pero Snow pensaba que el problema era el agua y, para demostrarlo, en 1854 empezó a registrar los casos de cólera del barrio de Soho, sobre un mapa centrado en torno a 13 fuentes: cada muerte era anotada como una línea sobre el lugar de residencia. En total, 578 muertes y el resultado dejaba lugar a pocas dudas: casi todas se concentraban alrededor de una fuente en Broad Street. En cuanto aparecía una nueva fuente, la enfermedad aparentemente se “frenaba”.

Para verificar que el área afectada por el cólera coincidía, efectivamente, con el área abastecida por la fuente, Snow comenzó por trazar un diagrama de Voronoi sobre el mapa. En este tipo de diagramas, el espacio se divide en regiones de cercanía a una serie de puntos y, en este caso, la región más cercana a la fuente de Broad Street parecía ser la más afectada por el cólera. Sin embargo, la coincidencia no era del todo exacta, por lo que Snow decidió repetir su diagrama teniendo en cuenta, esta vez, otro tipo de distancia: la distancia en tiempo, o distancia “caminada” a cada fuente (similar a la que registran los mapas isócronos). Para ello, tomó cuerda (para medir distancias sobre una trayectoria sinuosa) y un lápiz, y redibujó sus polígonos definidos, esta vez, como las zonas más cercana a una fuente a través de los caminos disponibles. La coincidencia se volvía aún mayor.

El mapa deja ver, también, algunas anomalías curiosas… Como la del bloque al este de la fuente contaminada, donde se encuentra una “brewery” o fábrica de cerveza. Parece que los trabajadores de la fábrica podían beber cerveza para calmar su sed. Por suerte, la fermentación acababa con las bacterias del cólera (sólo en este caso podría decirse que la cerveza es sana, en ningún otro).

También había casos aislados, fuera del área de influencia de la fuente, excepciones que Snow documentó de manera exhaustiva. Hoy casi sorprende el detalle de sus notas, como en el caso de una mujer de 59 años que “no había estado cerca de Broad Street en meses. Un carruaje iba de Broad Street a West End todos los días y le llevaba una botella de agua de la fuente de Broad Street, dado que ella la prefería. El agua fue tomada el jueves 31 de agosto, ella la bebió esa misma tarde y también el viernes. Tuvo un ataque de cólera por la tarde de este último día y falleció el sábado”. Otros casos alejados de la fuente correspondían de manera similar a gente que iba a trabajar o comprar a Broad Street y bebían de la fuente. Para colmo, esta tenía fama de tener buen sabor (mejor, al menos, que el de algunas de sus fuentes vecinas).

Por último, además de sus análisis geográficos, Snow tomó muestras de las distintas fuentes y las analizó bajo el microscopio. Confirmó la presencia de un organismo desconocido en la fuente de Broad Street. La fuente había sido contaminada por un pañal arrojado a un pozo negro cercano. Conformes, aunque no convencidos (la teoría de los microbios patógenos tardaría aún una década en ser aceptada), las autoridades decidieron cerrar el pozo de Broad Street y el brote de cólera pronto se sofocó. John Snow murió apenas cuatro años más tarde, en 1858, sin poder ver confirmada su teoría, sin terminar de decir “yo tenía la razón”.

Hoy, su mapa es considerado pionero en el uso del método geográfico para estudiar una epidemia. Pero además, cambió para siempre cómo percibimos las visualizaciones de datos: no sólo como un apoyo clarificador a un modelo ya conocido, sino como sustento y prueba del mismo. La teoría de Snow no hubiese podido ser mostrada únicamente mediante números y coordenadas; hubiese perdido, en el proceso de lectura, toda su elocuencia.

Referencias:

Un análisis contemporáneo del mapa de John Snow: Narushige Shiode, Shino Shiode, Elodie Rod-Thatcher, Sanjay Rana & Peter Vinten-Johansen (2015) The mortality rates and the space-time patterns of John Snow’s cholera epidemic map International Journal of Health Geographics doi: 10.1186/s12942-015-0011-y

Steven Johnson (2008) “El mapa fantasma”. Ilustrae.

Sobre la autora: Almudena M. Castro es pianista, licenciada en bellas artes, graduada en física y divulgadora científica

El artículo El mapa del cólera de John Snow se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cómo conseguir que la vacuna del cólera no necesite cadena de frío
  2. Un mapa del discernimiento
  3. El mapa Big Brain
Categories: Zientzia

Pál Turán: teoría de grafos y fábricas de ladrillos

Wed, 2019/04/10 - 11:59

 

Pál Turán (1910-1976) fue un matemático húngaro que trabajó fundamentalmente en teoría de números. Durante cuarenta y seis años colaboró con su compatriota Paul Erdős, llegando a publicar veintiocho trabajos conjuntos. Por supuesto, el número de Erdős de Pál Turán es 1.

Pál Turán. Imagen: Wikimedia Commons.

Alumno de Lipót Fejér –como los célebres matemáticos Paul Erdős, George Pólya, Tibor Radó, Marcel Riesz o John von Neumann, entre otros– Torán se casó en segundas nupcias con la también alumna de Féjer –y asimismo colaboradora de Paul Erdős y Alfréd RényiVera T. Sós (1930). El teorema de Kővári–Sós–Turán es un trabajo conjunto del matrimonio con Tamás Kővári: en él proporcionan una cota superior para la solución del problema de Zarankiewicz, una cuestión no resuelta en matemáticas que intentar averiguar cuál es el mayor número posible de aristas en un grafo bipartito que tiene un número dado de vértices y no posee subgrafos bipartitos completos de un tamaño dado.

Varios conceptos y desigualdades llevan el nombre de este matemático. Por ejemplo, el teorema de Turán establece que el llamado grafo de Turán es el que tiene el mayor número de aristas entre todos los grafos que no contienen subgrafos completos.

El grafo de Turán T(13,4). Imagen: Wikimedia Commons.

En 1934, Turán utilizó la denominada criba de Turán –una técnica para estimar el tamaño de ciertos conjuntos de números enteros positivos– para dar una nueva y sencilla demostración de un teorema de 1917 de G. H. Hardy y Srinivāsa Ramanujan sobre el orden normal del número de divisores primos de un número entero positivo. La desigualdad de Turán–Kubilius generaliza el anterior resultado.

Llevan el nombre de desigualdades de Turán unas desigualdades sobre polinomios de Legendre que Turán encontró en 1950. También son conocidas la desigualdad de Erdős-Turán en teoría de la medida y las conjeturas de Erdős-Turán sobre progresiones aritméticas (demostrada en 1975 por Endre Szemerédi) y sobre bases aditivas (problema aún no resuelto).

Gran parte del trabajo de Turán en teoría de números abordó la hipótesis de Riemann. De hecho, Erdős comentaba en [1] que “Turán era un ‘no creyente’, de hecho, un “pagano”: no creía en la verdad de la hipótesis de Riemann”.

Durante la Segunda Guerra Mundial, Turán se vio obligado a trabajar en una fábrica de ladrillos. Su trabajo consistía en empujar un carro con briquetas a lo largo de una vía desde un horno hasta un almacén. La fábrica contenía varios hornos y varios lugares de almacenamiento, con vías que se entrecruzaban para realizar estos transportes. A Turán le resultaba difícil empujar el vagón a través de un cruce de vías, y comenzó a considerar cómo podría rediseñarse la fábrica para minimizar estos cruces.

Tras finalizar la guerra, mencionó el problema a algunos de sus colegas. Los matemáticos Kazimierz Zarankiewicz y Kazimierz Urbanik abordaron esta cuestión. Demostraron que siempre es posible completar el diseño como se muestra en la figura 3: los hornos pueden colocarse a lo largo de un eje y los almacenes a lo largo del otro, organizando cada grupo de la manera más uniforme factible alrededor del origen y con las vías en forma de rectas entre cada posible par.

Imagen: Wikimedia Commons.

 

Si m es el número de hornos y n el de almacenes Zarankiewicz y Urbanik dieron una cota superior para el número de cruces (ver [3]). En el caso de la figura 3 (m=4 y n=7) esa cota se alcanza: hay 18 cruces.

¿Se trata de la manera óptima de hacerlo? Se desconoce la respuesta. Zarankiewicz y Urbanik pensaban que su fórmula proporcionaba el menor número posible de cruces, pero algunos años después descubrieron un error en su prueba. ¿Será posible diseñar una fábrica de ladrillos con menos cruces entre las vías uniendo hornos y almacenes? El problema continúa abierto

Referencias:

[1] Paul Erdős, Some personal reminiscences of the mathematical work of Paul Turán, Acta Arithmetica XXXVII (1980) 3-8

[2] J J O’Connor and E F Robertson, Paul Turán, MacTutor History of Mathematics archive, University of St Andrews.

[3] Turán’s Brick Factory Problem, Futility Closet, 4 abril 2019

[4] Turán’s brick factory problem, Wikipedia (consultado 6 abril 2019)

[5] Pál Turán, Wikipedia (consultado 6 abril 2019)

Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.

El artículo Pál Turán: teoría de grafos y fábricas de ladrillos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Arthur Cayley, la teoría de grafos y los isómeros químicos
  2. La teoría de grafos y “Così Fan Tutte”
  3. Incendios, los grafos de visibilidad y la conjetura de Collatz
Categories: Zientzia

Polarización de la luz

Tue, 2019/04/09 - 11:59
Imagen: Wikimedia Commons

Hooke y Huygens propusieron que la luz es en muchos aspectos como el sonido, es decir, que la luz es una onda que se propaga a través de un medio. Newton no pudo aceptar esta propuesta y argumentó que la luz también debe tener algunas propiedades similares a las partículas, además de su naturaleza ondulatoria*. Encontró que dos propiedades de la luz no podían explicarse, tal y como él lo entendía, a menos que la luz estuviera formada por partículas.

Primero, un haz de luz se propaga en el espacio en líneas rectas, mientras que las ondas, como el sonido, se extienden en todas las direcciones y son capaces de doblar las esquinas. Esta objeción no pudo responderse hasta principios del siglo XIX, cuando Thomas Young midió la longitud de onda de la luz y descubrió lo extremadamente pequeña que es. Incluso la longitud de onda de la luz roja, la longitud de onda más larga del espectro visible, es inferior a una milésima de milímetro. Mientras un rayo de luz brille sea el que ilumine los objetos o la luz entre a través de orificios de tamaño ordinario (unos pocos milímetros o más de ancho), la luz parecerá viajar en línea recta. Como vimos, los efectos de difracción y dispersión no se hacen evidentes hasta que una onda pasa sobre un objeto o por un agujero cuyo tamaño es aproximadamente igual o menor que la longitud de onda.

Newton basó su segunda objeción en el fenómeno de la “polarización” de la luz. En 1669, el científico danés Rasmus Bartholin descubrió que los cristales de espato Islandia (calcita) podían dividir un rayo de luz en dos rayos. Un texto escrito o cualquier objeto pequeño visto a través del cristal se veía doble.

Newton pensó que este comportamiento podría explicarse suponiendo que la luz está formada por partículas que tienen diferentes “lados”, por ejemplo, secciones transversales rectangulares. Razonó que las imágenes dobles representarían una clasificación de las partículas de luz que habían entrado en el medio con diferentes orientaciones.

Alrededor de 1820, Young y Fresnel dieron una explicación mucho más satisfactoria de la polarización, utilizando un modelo ondulatorio de la luz con una modificación crítica respecto al imperante. Hasta entonces los científicos generalmente habían asumido que las ondas de luz, como las ondas de sonido, debían ser longitudinales. Young y Fresnel demostraron que si las ondas de luz se consideraban transversales se podía explicar el fenómeno de la polarización muy fácilmente.

Imagen: Wikimedia Commons

En una onda transversal de tipo mecánico, el movimiento del propio medio, como una cuerda, es siempre perpendicular a la dirección de propagación de la onda. Esto no significa que el movimiento del medio esté siempre en la misma dirección. De hecho, podría estar en cualquier dirección en un plano perpendicular a la dirección de propagación.

Sin embargo, si el movimiento del medio es principalmente en una dirección (por ejemplo, vertical), la onda está polarizada. Por lo tanto, una onda polarizada es en realidad el tipo más simple de onda transversal. Una onda transversal no polarizada es más complicada, ya que es una mezcla de varios movimientos transversales. Todo aplica también a las ondas de luz, a pesar de que no necesitan de un medio para propagarse.

Nota:

* No, Newton no se adelantó a de Broglie, aunque lo parezca. Simplemente estaba formulando hipótesis para intentar comprender un fenómeno, no afirmando la dualidad onda-corpúsculo.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Polarización de la luz se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Tipos de ondas
  2. Características de una onda periódica
  3. Difracción de ondas: el principio de Huygens
Categories: Zientzia

Absorción del alimento

Mon, 2019/04/08 - 11:59

 

Fuente: Biology Notes for IGCSE

La mucosa del intestino delgado de los mamíferos contiene glándulas exocrinas cuyo producto de secreción es una solución de moco y sal denominada succus entericus o jugo intestinal. La función de esa secreción es aportar un agente protector y lubricante de la pared intestinal (el moco) y agua, ya que la digestión requiere que los nutrientes se encuentren en disolución.

Las enzimas que realizan la digestión en la luz del intestino provienen del páncreas. Son la lipasa, tripsina, quimotripsina, carboxipeptidasa y amilasa. Los productos de esa digestión o bien son absorbidos directamente o son digeridos por enzimas del borde en cepillo de las células epiteliales. Las enzimas en cuestión son la enteroquinasa (que activa el tripsinógeno procedente del páncreas), las disacaridasas que finalizan la digestión de los carbohidratos (en mamíferos estas enzimas son maltasa, sacarasa, lactasa y trehalasa) y las aminopeptidasas, que hacen lo propio con la digestión de las proteínas. En las aves hay alguna diferencia con respecto a los mamíferos: carecen de lactasa, como es lógico, y muchos pájaros (no así los colibríes) no tienen sacarasa.

En principio, el intestino tiende a absorber todos los nutrientes (tras su digestión), electrolitos1, vitaminas y agua que han sido ingeridos. Aunque, como veremos en otra ocasión, es un órgano muy flexible, por lo que la capacidad para digerir y absorber unos nutrientes u otros se puede modificar en función de su presencia y proporción en la dieta habitual.

El agua se absorbe de forma pasiva impulsada por la absorción de Na+. Este, por su parte, puede pasar a favor de gradiente electroquímico –y, por lo tanto, de forma pasiva- desde la luz del tubo al fluido intersticial que hay entre los villi. Ese movimiento se produce a través de los espacios intercelulares; del líquido intersticial pasa a los capilares sanguíneos.

Pero también hay movimiento de sodio a través de las células epiteliales, y ese movimiento sí requiere gasto de energía. Puede entrar pasivamente en la célula a través de canales o en compañía de otro ión gracias al concurso de un transportador (simporter Na+/Cl–, antiporter Na+/H+ o simporter Na+-glucosa (o aminoácido)). Y sale de la célula epitelial, a través de su membrana basolateral hasta el líquido intersticial de los espacios intercelulares gracias a la acción de la bomba Na+/K+. La absorción de Cl–, H2O, glucosa y aminoácidos está vinculada a la absorción activa de sodio. El Cl– pasa a favor del gradiente eléctrico creado por el Na+, y el agua, por el flujo osmótico provocado por la alta concentración de NaCl en los espacios intersticiales.

La mayor parte de los carbohidratos en condiciones de ser absorbidos por las células epiteliales se encuentran, como ya se ha dicho, en forma de disacáridos. Las disacaridasas presentes en el borde en cepillo reducen esos azúcares a sus monómeros constituyentes: glucosa, galactosa y fructosa, dependiendo del disacárido original.

Glucosa y galactosa son absorbidas mediante transporte secundario activo, en el que intervienen simporters como el cotransportador sodio-glucosa (SLGT), que transfieren ambas sustancias, glucosa y sodio desde la luz del intestino al interior celular. La energía que se gasta en este proceso es la que gasta la bomba Na+/K+ de la membrana basolateral que, como antes hemos señalado, es la responsable de crear el gradiente de Na+ necesario para hacer posible su transferencia y, con él, el del azúcar. De esa forma, la concentración de glucosa (y en su caso la de galactosa) se eleva dentro de la célula, por lo que puede abandonarla fácilmente a través de la membrana basal a favor de gradiente de concentración, mediante difusión facilitada por el transportador de glucosa GLUT-2, presente en esa membrana. Del fluido intersticial pasa al capilar del villus en el que se encuentra la célula epitelial. Además de ese transporte, parece ser que la glucosa también puede pasar desde la luz intestinal hasta el líquido intersticial a través de los espacios intercelulares del epitelio (como ocurría con el sodio).

La fructosa se absorbe a través de difusión facilitada. Entra en la célula epitelial gracias al transportador GLUT-5 y sale al espacio intersticial mediante el concurso del transportador GLUT-2.

Las proteínas, por su parte, se van fragmentando, primero en el estómago y luego en la luz intestinal. Como resultado de las sucesivas hidrólisis anteriores, finalmente quedan aminoácidos y pequeños péptidos para su digestión final y absorción epitelial. Los aminoácidos se absorben de forma similar a la glucosa y galactosa.

Los pequeños péptidos se introducen en la célula epitelial mediante un transportador dependiente de Na+. El proceso se denomina transporte terciario activo. El simporter que interviene transfiere a la vez el péptido y un protón desde la luz intestinal al interior de la célula. El H+ se mueve a favor de gradiente de concentración, mientras que el péptido lo hace en contra. El gradiente de protones se genera mediante el concurso de un antiporter de Na+/H+, que introduce sodio a favor de gradiente de concentración a la vez que saca H+ en contra. Por su parte, el gradiente de concentración de Na+ que impulsa el antiporter Na+/H+ se genera gracias a la actividad de la bomba Na+/K+ en la membrana basolateral.

Todo ese proceso se puede observar desde el ángulo contrario. La bomba Na+/K+ extrae Na+ de la célula hacia el líquido intersticial. Ese transporte es necesariamente activo, porque el sodio está muy concentrado en el medio interno (el líquido intersticial o extracelular es medio interno), mientras que el potasio lo está en el medio intracelular. La bomba, por lo tanto, reduce de esa forma la concentración intracelular de Na+, de manera que facilita su transferencia desde la luz intestinal. Dado que parte de ese sodio entra acoplado a la salida de protones y puesto que esa salida está, a su vez, asociada a la entrada de oligopéptidos a la célula, la incorporación de estos acaba siendo el resultado de una cadena de movimientos, activos y pasivos, en la que intervienen varios iones (H+, Na+ y K+).

Los oligopéptidos son hidrolizados por la acción de las aminopeptidasas del borde en cepillo de la membrana celular o en el citoplasma gracias a la acción de peptidasas intracelulares. Los aminoácidos resultantes de estos procesos (transporte o digestión intracelular) salen de la célula epitelial mediante transportadores pasivos (no utilizan energía) y entran en los capilares sanguíneos por difusión.

Además de las proteínas provistas por el alimento, en el intestino delgado se digieren y absorben proteínas de origen endógeno, como enzimas digestivas, proteínas celulares que han sido expulsadas de las células de la pared a la luz intestinal durante la renovación de la mucosa, y proteínas plasmáticas que se filtran desde el plasma accidentalmente. Entre 20 y 40 g de estas proteínas son digeridas diariamente.

Las grasas experimentan un proceso de digestión y absorción muy diferente de los anteriores. Como vimos, debido a la acción de las sales biliares y los movimientos intestinales las gotas lipídicas de tamaño grande se convierten, primero en gotas pequeñas, y luego, debido a la acción de la lipasa (con el concurso de la colipasa), en micelas, estructuras lipídicas esféricas de entre 3 y 10 nm de diámetro. Esas micelas son la forma en que los monoglicéridos y ácidos grasos libres acceden a la membrana de las células epiteliales para, una vez allí, penetrar a su través. Los componentes que configuran la estructura micelar son reutilizados para englobar nuevos fosfolípidos y monoglicéridos, y llevarlos hasta la membrana para su absorción.

Tras entrar en las células, los constituyentes de los lípidos son utilizados para sintetizar triglicéridos, que son empaquetados en agregados provistos de una capa de lipoproteínas gracias a la cual se hacen solubles en agua. Las lipoproteínas de mayor tamaño se denominan quilomicrones, y salen mediante exocitosis de la célula epitelial hacia el líquido intersticial, y de ahí, en mamíferos, al vaso quilífero (al que nos referimos aquí). En las aves los quilomicrones pasan a los capilares sanguíneos de los villi.

Fuente: Biology Notes for IGCSE

Los productos de la digestión de carbohidratos y proteínas pasan al hígado porque, como vimos, las vénulas desembocan en la vena porta hepática. La mayor parte de esos nutrientes se procesan metabólicamente allí. Además, ese órgano también se ocupa de tareas de desintoxicación de sustancias dañinas. Las grasas tienen un destino diferente. Al acceder al vaso quilífero, acaban desembocando en el sistema linfático y, de este, pasan a la circulación general a través del conducto torácico, un gran vaso linfático que desemboca en el sistema venoso. Ese dispositivo hace que una parte importante de los lípidos absorbidos sean incorporados directamente a los adipocitos, aunque otra parte acaba también siendo procesada por el hígado. De este modo se evita que este órgano reciba más grasa de la que puede procesar.

El hígado, no obstante, juega una función importante en el transporte de lípidos pues, como vimos, sintetiza diferentes lipoproteínas plasmáticas y las vierte al sistema circulatorio para su uso. Las lipoproteínas de alta densidad (HDL y LDL) transportan principalmente colesterol y también fosfolípidos para la fabricación de membranas celulares. Las lipoproteínas de muy baja densidad (VLDL) transportan principalmente triglicéridos que son almacenados en adipocitos como sustancias de reserva.

Hemos visto antes que la absorción de sodio por las células de la mucosa intestinal va acompañada de absorción de agua. Es, de hecho, una actividad muy importante. Un intestino delgado humano viene absorber del orden de 9 l de agua al día, aunque el agua que se ingiere en el alimento son unos 1.250 ml y otros 1.250 ml se ingieren bebiendo. El resto son fluidos procedentes del propio organismo: 1.500 ml de saliva, 2.000 ml de jugos gástricos, 1.500 ml de jugo pancreático, 500 ml de bilis y 1.500 de jugo intestinal. La suma de esas cantidades arroja un volumen de 9.500 ml. Los 500 ml restantes pasan al intestino grueso, donde se absorberán 350 ml diarios. El resto, 150 ml, se evacúa con las heces.

Por otra parte, el HCl secretado por el estómago es neutralizado en el intestino delgado por el NaHCO3 secretado por el páncreas. El H2CO3 resultante se disocia en CO2 y H2O y estos productos, junto con el NaCl también resultante de la neutralización del clorhídrico procedente del estómago son absorbidos. El resultado final es que las actividades digestivas no provocan cambios en el pH del medio interno.

Nota:

1Con la salvedad de calcio y hierro, que son absorbidos en función de las necesidades.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Absorción del alimento se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El estómago (u órgano equivalente)
  2. Efectores osmóticos
  3. Modalidades de alimentación
Categories: Zientzia

¿Son útiles los juguetes STEM?

Sun, 2019/04/07 - 11:59

Haydée Valdés González

Seguramente, de un tiempo a esta parte ustedes también habrán observado un espectacular aumento en la oferta de juguetes “científicos” también denominados juguetes STEM (Science, Technology, Engineering and Mathematics; Ciencia, Tecnología, Ingeniería y Matemáticas) que están disponibles en cualquier tienda del sector. Por ejemplo, la entrada “stem toys” en amazon.com devuelve más de 8000 resultados (a fecha de enero de 2019).

La publicidad de estos juguetes frecuentemente sugiere que tienen un claro carácter educativo de manera que los niños podrán aprender sobre Ciencia y Tecnología sin renunciar a la diversión. Parece además, que el juguete STEM es una buena opción para fomentar el interés de los niños por la Ciencia y la Tecnología e incluso, por qué no, para despertar sus vocaciones científicas.

Sin negar que el juguete pueda ser bonito, de calidad, y que el niño pueda pasar un rato entretenido con él, la realidad es que la mayoría de los juguetes STEM tienen, por lo general, un claro error de planteamiento en lo que a su enfoque científico se refiere: presentan la actividad científica como un proceso dirigido y cerrado cuando la actividad científica es justamente todo lo contrario, un proceso abierto y no dirigido.

Veamos.

Imagen: Pixabay

Los “juguetes científicos” son juguetes comerciales en los que, en una gran mayoría de los casos, se parte de preguntas cerradas a cuya única respuesta se llega siguiendo un procedimiento perfectamente establecido. Consecuentemente, y por lo general, sólo será posible obtener el resultado previamente predeterminado por el fabricante si se siguen las instrucciones al pie de la letra y se usan los materiales suministrados por el mismo.

La Ciencia, en cambio, es una actividad orientada a la búsqueda de conocimiento en la que únicamente se sabe con certeza el punto de partida y donde, generalmente, la fabricación y el desarrollo del instrumental necesario forma parte de la actividad investigadora (a diferencia del juguete STEM donde todo el material viene suministrado por el fabricante).

Por tanto, hacer Ciencia es una cosa y otra cosa muy diferente es llevar a cabo actividades relacionadas con la Ciencia que es, esencialmente, lo que un niño hace cuando juega con un juguete STEM.

Más específicamente: un niño está haciendo Ciencia cuando motivado por su propia curiosidad efectúa un conjunto de acciones y obtiene cierto conocimiento. Por ejemplo: un niño está haciendo paleontología (a un nivel infantil: elemental, básico y sencillo) cuando rebusca entre las piedras en una escombrera de una mina de carbón intentando encontrar alguna con marcas y después las observa detenidamente con una lupa para ver si alguna de estas piedras se corresponde, por ejemplo, con un fósil de una planta. Estrictamente hablando, este niño ha llevado a cabo una investigación real, a un nivel rústico y primitivo como digo, pero tan auténtica y verdadera en su esencia como la que podría efectuar cualquier paleontólogo.

En cambio, un niño está jugando a ser científico cuando, jugando con un juguete STEM, imita la actividad de un investigador de manera que siguiendo el correspondiente manual de instrucciones el niño aplica algunas de las técnicas de laboratorio más básicas y emplea parte del instrumental más elemental que un científico utiliza en su día a día para llegar a un resultado preestablecido. Por ejemplo: un niño está jugando a ser paleontólogo cuando juega con un juguete STEM en el que hay un conjunto de fósiles “enterrados” en un bloque de arcilla y “excava” en dicho bloque de arcilla, con unas “herramientas de paleontólogo” (miniaturizadas) y “desentierra” todos los fósiles.

En general, como queda ilustrado en el ejemplo anterior, las actividades relacionadas con la Ciencia planteadas en los juguetes STEM resultan bastante artificiales principalmente porque suelen ser una simplificación bastante burda de la actividad científica “adulta” y no son verdaderas propuestas para hacer Ciencia a un nivel propiamente infantil (cuanto más pequeño es el niño al que va destinado el juguete peor, como se puede suponer).

Los juguetes STEM tampoco son, necesariamente, la mejor manera de promover el desarrollo del espíritu científico infantil. En concreto, podría decirse que un juguete STEM es a la Ciencia lo que un dibujo para colorear, con el modelo miniaturizado ya coloreado en la propia hoja, es al Arte. Para desarrollar la capacidad artística de un niño no basta con plantearle que, sin salirse de la raya, coloree un dibujo con los mismos colores que un modelo dado o que copie una lámina (procesos dirigidos). Estas actividades son (como mucho) útiles para adquirir determinada pericia técnica pero en ningún caso son suficientes para desarrollar capacidad artística alguna. Cultivar la capacidad artística infantil indudablemente requiere dejar espacio al niño para que, espontáneamente, inspirado por algo que verdaderamente le haya conmovido, exprese sus emociones mediante una obra de su propia creación. Entendamos que una obra de arte creada por un niño de corta edad puede ser un trozo de corteza de un árbol con varias marcas hechas con una piedra puntiaguda, una figura “amorfa” de arcilla, o “cuatro garabatos” en una hoja de papel en blanco.

De la misma manera, en el ámbito científico un niño no desarrollará su espíritu científico si lo único que se le plantea es hacer experimentos siguiendo un manual de instrucciones (proceso dirigido).

Investigar es decidir en cada momento qué paso dar a continuación en función de los resultados obtenidos lo que es absolutamente opuesto a seguir ordenadamente un conjunto específico de pasos para obtener un resultado determinado que, en definitiva, es el modo en el que se plantea la experimentación en un juguete STEM.

“Enlatar” la Ciencia en un producto comercial para que un niño haga un experimento específico atendiendo a un conjunto de instrucciones es (a lo sumo) útil para aprender algunos contenidos científicos y quizás (en el caso de los niños de mayor edad) para adquirir cierta pericia técnica y familiarizarse con el instrumental científico y unas pocas técnicas básicas de laboratorio pero, para desarrollar verdaderamente el espíritu científico infantil, sin duda alguna, hay que ofrecer al niño la posibilidad de vivir experiencias científicas reales en las que, espontáneamente, guiado por su propia curiosidad, pueda indagar y profundizar sobre cuestiones que verdaderamente le intriguen. Sólo así podrá conocer lo que es auténticamente la Ciencia, vivir en primera persona el inmenso placer que proporciona comprender cosas por uno mismo y entender porqué lo verdaderamente divertido es hacer Ciencia frente a la posible diversión que pueda proporcionar jugar con un juguete STEM.

Para terminar, hay una cuestión sobre la que me gustaría incidir especialmente: la referente a algunos “juguetes científicos” diseñados específicamente para niñas. La situación actual es que amparándose bajo la filosofía “empoderamiento de las niñas en la Ciencia” algunas empresas están diseñando y vendiendo “juguetes científicos diseñados específicamente para niñas” bajo la promesa de que gracias a ellos se contribuirá a favorecer el acceso de las niñas a la Ciencia y su participación en ella. Sin embargo, resulta verdaderamente llamativo que muchos de estos juguetes tengan los colores (rosa y morado, principalmente) y versen sobre temáticas (maquillaje, perfumes, jabones, barras de labios, velas, etcétera) habitualmente asociados al mundo femenino. Obviamente, en base a lo que se discute en el presente artículo, la validez de estos productos comerciales para favorecer el acercamiento de las niñas (y de cualquiera) a la Ciencia y su participación en ella es altamente dudosa pero es que además, estos juguetes no están en ningún modo exentos de polémica al poder considerarse que perpetúan los estereotipos de género.

Sobre la autora: Haydée Valdés González es doctora en ciencias químicas.

El artículo ¿Son útiles los juguetes STEM? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Juguetes y hormonas sexuales
  2. Las matemáticas en Wall Street, ¿útiles o perversas?
  3. Lejos del dogma y cerca de la aventura, por Melina Furman
Categories: Zientzia

¿Qué pasa en tu cuerpo cuando te enamoras?

Sat, 2019/04/06 - 11:59

Para que resuelte el amor primero tiene que existir química entre dos personas. Literalmente.

Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.

Edición realizada por César Tomé López

El artículo ¿Qué pasa en tu cuerpo cuando te enamoras? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Qué pasa en tu cerebro cuando duermes?
  2. ¿Cómo demonios funcionan las copas musicales?
  3. ¿Hemos intentando contactar con extraterrestres?
Categories: Zientzia

El arboretum de la UPV/EHU

Fri, 2019/04/05 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

En el espacio de aproximadamente 11 hectáreas de extensión, sobre una pendiente orientada al sur que salva un desnivel de 40 metros entre cima que ocupan las facultades de Ciencia y Tecnología y Medicina y el pequeño embalse de Lertutxe (25.900 m2), se halla el Arboretum de la UPV/EHU. Se extiende entre los términos municipales de Leioa y Erandio (Bizkaia) y las obras de acondicionamiento comenzaron en 2009. Este terreno, perteneciente a la universidad, ya fue destinado a ocupar un Jardín Botánico en anteriores planificaciones, pero esto jamás llegó a realizarse por diversas causas. Finalmente se abordó, con el apoyo de la Diputación Foral de Bizkaia, la instalación de un arboretum, basado en una colección viva de árboles.

Foto: Antonio Secilla.

Un arboretum (conjunto de árboles) es una colección de especies leñosas, fundamentalmente árboles y grandes arbustos dispuestos de una manera poco densa, como en un parque inglés. Existen numerosos ejemplos de este equipamiento, sobre todo en el mundo anglosajón, presentando algunos una antigüedad notable, como es el caso del de Westonbirt en el Reino Unido (1829), el Arnold Arboretum de la Universidad de Harvard (Massachussets, EE.UU.), de 1872 o el National Arboretum, en Washington, desde 1927.

Los Jardines Botánicos modernos, y de forma más modesta, también los arboreta, cumplen en la actualidad las siguientes funciones de apoyo a: la investigación, la docencia, la conservación de la biodiversidad y la educación ambiental. En el caso que nos ocupa, varias tesis doctorales centraron su investigación en el embalse de Lertutxe, pero la actividad investigadora se halla actualmente detenida por falta total de programas que la financien. Además, el Arboretum de la UPV/EHU cuenta con algunos elementos conmemorativos que le son propios. Con arreglo a los recursos disponibles, se trata de cumplir con estos cometidos mediante las estructuras que se describen a continuación.

Docencia

Es la principal actividad. Ella se fundamenta en la existencia de una serie de elementos que ocupan buena parte de la extensión del Arboretum.

Colección de árboles y arbustos (Arboretum propiamente dicho). Está formada por un conjunto de árboles que bien son de plantación reciente o son individuos establecidos de forma natural (en este último caso, las especies corresponden en gran parte a la flora autóctona y los individuos son los de mayor edad y porte). En este Arboretum se pueden distinguir cinco sub-colecciones: 1. Árboles y formaciones autóctonas, 2. Árboles de las regiones templadas del Hemisferio Sur (Cono sur de Suramérica, Australia, Suráfrica y Nueva Zelanda); 3. Árboles de las regiones templadas de Asia; 4. Árboles de Norteamérica; 5. Árboles de la Región Mediterránea.

Heliosciámetro. Es un elemento de alto interés didáctico. La palabra deriva del griego helios (sol), skias (imagen, sombra, proyección) y metro (medir), y se trata de una versión actualizada del primitivo gnomon de egipcios y babilonios, tal vez el instrumento astronómico conocido más antiguo. El dispositivo que aquí se presenta consiste en un poste rematado por una lente que proyecta sobre el suelo la sombra del Sol y permite realizar diversas medidas en función de la trayectoria recorrida por esta sombra. Se indican numerosos parámetros astronómicos, como altura del Sol sobre el horizonte local, hora solar, hora de salida (orto) y puesta (ocaso) del Sol, puntos de salida y puesta del Sol, situación del Sol en el Zodíaco, etc. Toda una clase de astronomía.

Foto: Antonio Secilla.

Colección de rocas del País Vasco. Está formada actualmente por una veintena de muestras de rocas, representativa de la variedad de tipos de rocas de Bizkaia principalmente. Es propósito de la UPV/EHU incrementar la colección para lograr una representatividad que abarque un territorio mayor.

Foto: Antonio Secilla.

Embalse de Lertutxe. De modesta extensión y aguas someras, si bien alcanza los casi 7 m en su punto más profundo, es un elemento de alto valor paisajístico y ecológico en el Arboretum. Se utiliza como espacio para recogida de muestras en las prácticas de Ecología de Aguas por los alumnos del grado de Biología y del Máster en Biodiversidad, Funcionamiento y gestión de Ecosistemas. En él habita una población de patos salvajes que se pretende conservar, lo que implica el mantenimiento de las comunidades naturales de carrizos y espadañas que pueblan todo el perímetro del embalse.

Foto: Antonio Secilla.

Fragmento de bosque natural. Por circunstancias de abandono durante muchos años, en el entorno del riachuelo de Lertutxe se ha desarrollado espontáneamente un pequeño bosque de robles y alisos que ha alcanzado en la actualidad una alta naturalidad gracias a que durante largos años no ha sido intervenido. Este pequeño bosque tiene un notable valor para el Arboretum y para la UPV/EHU representa una oportunidad única de poder mostrar a los estudiantes (de cualquier nivel) y “a pie de universidad” un ejemplo de bosque natural.

Foto: Antonio Secilla.

Conservación de la Biodiversidad

Bosque natural. El pequeño bosque natural que hemos comentado tiene un notable valor porque corresponde a dos tipos de hábitat protegidos por la Unión Europea (códigos 9190 y 91E0*) y porque, gracias al abandono de tantos años, se halla en un excelente estado de naturalidad. Ambas circunstancias hacen que la preservación de este pequeño fragmento de bosque natural autóctono constituya una participación de la UPV/EHU en los esfuerzos en materia de conservación del patrimonio natural.

Fauna. Se pretende que el Arboretum de la UPV/EHU está habitado por una fauna, tanto terrestre como acuática, que encuentre en esta zona un espacio en el que establecerse de forma permanente. En este sentido, ya se ha prohibido la caza y se han llevado a cabo actuaciones repobladoras como suelta de aves rapaces, anátidas y otros animales. En la medida de lo posible, las especies animales vivientes en el Arboretum contarán con un refugio para su subsistencia.

Educación Ambiental

Feria de las plantas de los 5 continentes. En el primer fin de semana de octubre de cada año se celebra una feria de plantas ornamentales y útiles en el recinto del Arboretum. Participan más de una treintena de expositores de diversos lugares que ofrecen a la venta sus plantas al público. Se trata de expositores especializados, cada uno en un tipo de planta, y con una perspectiva geográfica amplia, de modo que se puedan encontrar especies vegetales de diversas partes del mundo. El objeto de esta feria es fomentar el conocimiento sobre las plantas del público en general y su afición por cultivarlas.

Visitas guiadas. Se realizan recorridos por los senderos y caminos del Arboretum para observar las especies arbóreas y arbustivas, el Helosciámetro, el ejemplo de bosque atlántico, las especies acuáticas del embalse, las aves, la colección de rocas, etc. Estas visitas se hacen por grupos en ocasiones propicias, como son las ferias, y son guiadas por personas adiestradas a tal efecto.

Elementos conmemorativos

Bosque de la Vida. Es un elemento prominente en el espacio del Arboretum que tiene un reconocido valor artístico. Su condición de lugar de inhumación de las personas que donaron sus restos a la ciencia, le convierte en un elemento de profunda significación y de reconocimiento a su generosidad y a la de sus familiares.

Foto: Antonio Secilla.

Espiral conmemorativa del inicio de la docencia en Euskara en la UPV/EHU. Esta espiral, que conmemora el inicio de los estudios en euskera en la facultad de Ciencia y Tecnología, cuenta con una serie de árboles plantados a lo largo del adoquinado que dibuja la espiral. Estos árboles están ordenados de más primitivo a más evolucionado y proceden de los 5 continentes, en representación de la vocación universal de nuestra universidad.

Foto: Antonio Secilla.

Bosque de los honoris causa. Es un espacio dedicado a los árboles que plantan las personas premiadas por nuestra universidad con un doctorado de honor (Doctoris honoris causa). Es una forma de honrar y perpetuar en la memoria a las personas distinguidas de esta forma.

Foto: Antonio Secilla.

Sobre el autor: Javier Loidi es catedrático de botánica en el Departamento de Biología Vegetal y Ecología de la UPV/EHU.

El artículo El arboretum de la UPV/EHU se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Espectrometría de masas: de un isótopo de neón a elefantes que vuelan
  2. Cartografiando territorio inexplorado: imagen por espectrometría de masas
  3. Proteómica: cuando las proteínas y la espectrometría de masas van de la mano
Categories: Zientzia

Humildemente, el mundo es mejor gracias a mí

Thu, 2019/04/04 - 11:59
Wonder Woman por Greg Guillemin

Tenemos más y mejor acceso a la información, sin embargo, tenemos la impresión de que estamos más desinformados que nunca. Hay medios de comunicación con un equipo editorial y de revisores que nos ofrecen garantías. Hay comunicadores con un historial impecable de honestidad y saber hacer. Pero en cuanto ponemos un ojo fuera de estos lugares de confianza, estamos perdidos. A ver si se citan las fuentes, a ver si quien firma es una voz autorizada, a ver si está publicado en un medio serio, a ver si lo que cuenta coincide con lo que yo ya sé. Todo eso está muy bien, pero en estos tiempos de posverdad, para decidir si algo es información o desinformación, es tan importante el qué se cuenta como el cómo se cuenta.

Una de las técnicas más persuasivas es el storytelling, es decir, contar historias y con ellas establecer conexiones emocionales. Esta técnica a menudo se emplea en divulgación científica y, sobre todo, en publicidad. Los desinformadores también conocen su poder de persuasión, pero hay un formato en concreto del que abusan y nos facilita la tarea de identificarlos: el relato heroico. De ahí el título de este artículo.

  • Las fuentes no lo son todo.

Si en un artículo se citan o se enlazan las fuentes de información, es más probable que lo que ahí se cuente sea cierto. No obstante, no es un criterio implacable. Las fuentes pueden ser o no fuentes de calidad. En los artículos sobre temas científicos suelen enlazarse estudios científicos, los llamados papers. El sistema de publicaciones científicas funciona mediante un método de revisión y verificación de datos que nos ofrece garantías. Aun así, es difícil identificar si realmente estamos ante un paper o un artículo cualquiera, si el paper es bueno, si la metodología el paper se corresponde con el tema del artículo… Es decir, casi tienes que ser experto para comprobar si la fuente es fiable y coherente o no. Así que eso de “comprobar las fuentes” no sirve para todos.

De hecho, casi cualquiera puede publicar un post citando fuentes que corroboren su tesis. Es tan fácil como entrar en Google Scholar y buscar algún estudio que confirme, o al menos no contradiga, lo que quieres contar. A esto se le llama cherry piking: filtrar la información para quedarnos exclusivamente con la que nos da la razón. Esto solemos hacerlo de forma inconsciente, puesto que todos padecemos, en mayor o menor medida, un sesgo de confirmación. Algunos filtran para engañar, pero la mayoría filtran sometidos a su sesgo de confirmación. Los lectores también.

  • Todos tenemos sesgos de confirmación y los desinformadores lo saben.

Es más probable que demos por cierta una información si esta se corresponde con lo que ya sabemos. Nuestros conocimientos previos sobre el tema pueden ser un arma de doble filo. Por un lado, pueden ayudarnos a discernir, y por otro pueden servir de semilla para la desinformación. Depende de la calidad de lo que sepamos, de si son conocimientos o de si son prejuicios, y a veces es difícil identificarlos.

Por ejemplo, una de las razones por las que el movimiento antivacunas ha calado es porque se fundamenta en prejuicios sobre el sector farmacéutico. El rechazo a los aditivos alimentarios se fundamenta en prejuicios sobre el sector alimentario. La creencia de que los cosméticos contienen tóxicos se fundamenta en prejuicios hacia el sector. ¿Cómo es posible que una persona con estudios superiores decida no vacunar a sus hijos? ¿Cómo es posible que alguien que sepa la química suficiente como para identificar los aditivos de un alimento, los rechace? ¿Cómo es posible que alguien tenga los conocimientos como para reconocer cuáles son los tensioactivos en la fórmula de un champú y crea que son tóxicos?

A menudo pronuncio la frase “Cuantas más cosas sabemos, mejores decisiones tomamos”. Esto es falso. No se trata de saber más cosas, sino de tener conocimientos de calidad. No se trata de saber más, sino de saber mejor.

De hecho, siguiendo con el ejemplo de los antivacunas, estos manejan más información que el resto. Esa es una de las razones por las que resulta tan complicado debatir con un antivacunas, porque son gente muy informada, o mejor dicho, muy desinformada.

En este sentido puede resultar interesante el documental de Netflix “La Tierra es plana”. Los terraplanistas también son gente muy desinformada, hacen sus propios experimentos tratando de confirmar su teoría. Los diseñan para tal fin. Buscan papers que confirmen sus hipótesis. Tienen el sesgo de confirmación a tope. Los que no somos terraplanistas también. Y demás no hacemos experimentos para corroborarlo. Por eso me parece especialmente brillante la intervención del físico Lamar Glover en el documental: “Conspiracionistas, antivacunas, terraplanistas… Cuando dejamos gente atrás, mentes brillantes mutan y se anquilosan. Son científicos en potencia totalmente equivocados”.

Si entramos en foros de conocidos anticientíficos, como antivacunas, o como quienes afirman que un desinfectante industrial es la cura del cáncer, veremos que en sus publicaciones enlazan fuentes y que además se apoyan fuertemente en los prejuicios que existen sobre el sector farmacéutico. No es de extrañar que su desinformación pueda parecer información ante ojos inexpertos.

Quien tiene demasiado presentes los traspiés de la industria farmacéutica, es probable que infravalore todos sus logros, y que le resulte convincente cualquier idea conspiranoica sobre este sector. Por este motivo gran parte del relato de los anticientíficos y charlatanes se fundamenta en reiterar los errores de la industria. Su propaganda depende del menosprecio hacia un sector entero.

  • El relato heroico como fórmula del éxito desinformador.

Pensemos en cualquier charlatán anticientífico que nos venga a la mente. Hecho.

Seguramente se presenta como alguien sin demasiado poder pero muy motivado para luchar contra algo más grande que él. La industria farmacéutica, la industria alimentaria, el gobierno. Cualquier cosa grande. Hace hincapié en definirse como un donnadie. Un simple agricultor, un simple investigador, un simple ciudadano de a pie. Los héroes de nuestro tiempo son, con frecuencia, autoproclamados mindundis. Esto les da mucha credibilidad, por aquello de la empatía, y por aquello de que nos hacen sentir partícipes. Todos podemos ser héroes y tal.

Su historia empieza de la nada. Abriendo un blog como cualquier hijo de vecino. Sin ánimo de lucro, por supuesto. El voluntarismo es súper importante para mantener la credibilidad. Simplemente empezó a investigar y a escribir sus cosillas para despertar el sentido crítico de la gente. Porque la educación es súper importante y se fragua en un blog. Porque una entrada en un blog puede desarmar a toda una industria. Lo hace por la gente. Para que la gente sea libre y viva en un mundo mejor.

Su obra benefactora se abre camino. Un día sale en la tele. Y luego publica un libro y da charlas. Va por ahí contando la verdad y, según él, poniendo súper nerviosa a la industria de nosequé. A veces cuenta que se ponen en contacto con él para reñirle muy fuerte. Es importante contarlo, porque si el malo no te amenaza, eres un héroe de mierda.

Es muy importante que el malo sea un ente. No es una persona, es un ente. La industria, los gobiernos, el gran hermano que te vigila. A veces es una empresa, pero suficientemente grande como para que entre dentro de la categoría de ente. Una multinacional. Eso, eso, multinacional, que son todas el demonio rojo.

Nadie se convierte en héroe relatando su batalla contra las patatas fritas Manolo. A ver si van a pensar que es una rencilla personal con Manolo y no una lucha súper importante en defensa de los derechos fundamentales y esas cosas serias. Además, a quién le importan las patatas de Manolo, habiendo multinacionales y gobiernos del mal.

El charlatán es un rebelde. Es indomable. Es el azote de lo preestablecido. Su historia es convincente porque es una historia que mola. El relato heroico funciona, con un malo muy malo y muy grande, y con un bueno cargado de buenas intenciones. Un tipo humilde, como tú y como yo. Un tipo que humildemente está haciendo nuestro mundo mejor.

  • Conclusión

Los desinformadores resultan convincentes porque sus intervenciones lo tienen todo: fuentes, prejuicios y un relato heroico.

La tarea de identificar la veracidad de lo que cuentan es complicada a través de las fuentes y a través de la identificación de nuestros propios prejuicios. Por eso, el formato cobra protagonismo a la hora de detectar la desinformación. Si una información se nos presenta en forma de relato heroico, con toda probabilidad, estamos ante un impostor.

Igual que criticamos a los charlatanes que sueltan lindezas sobre las farmacéuticas para venderse a sí mismos y sus pseudoterapias, apliquemos el mismo detector de charlatanería sobre aquellos que dicen enfrentarse a “la perversa industria alimentaria”. Cualquiera que con orgullo diga enfrentarse al “eje del mal”, ya sea la industria, los gobiernos, o el lado oscuro, es un donnadie con ínfulas. Un desinformador que ha convertido su lucha inventada en su empresa, en una cuestión identitaria, en su cometido vital.

El relato heroico es una vaga maniobra de persuasión propia de la posverdad. Detectarlo es, probablemente, la mejor estrategia de identificar la desinformación.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo Humildemente, el mundo es mejor gracias a mí se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Puedes presumir de tener la mejor piel del mundo.
  2. ¿Por qué si nunca hemos vivido mejor que ahora el mundo nos parece cada vez peor?
  3. Así es la mejor crema antiedad según la ciencia
Categories: Zientzia

¿Pueden los números enamorarse de su propia imagen?

Wed, 2019/04/03 - 11:59

En la entrada Los números enamorados del Cuaderno de Cultura Científica, habíamos presentado algunas familias de números naturales que deben su propiedad definitoria al comportamiento de sus divisores, en concreto, de sus divisores propios, es decir, entre los divisores no se considera al propio número. Estuvimos hablando de los números perfectos, abundantes, deficientes, casi perfectos, multi-perfectos, ambiciosos, sublimes, amigos, novios, sociables, intocables, prácticos, raros, e incluso, poderosos.

Detalle de la obra “CITY VIEW” (2003), de la artista japonesa, que vive en Nueva York, Kumi Yamashita. La obra pertenece a la colección permanente de Namba Parks Tower, en Osaka (Japón). Fotografía de la página web de la artista

En esta entrada vamos a hablar de una serie de familias de números que podríamos denominar en su conjunto como narcisistas, aunque esta sea la denominación particular de una de esas familias. Estos números tienen la propiedad de que, si se toman las cifras que componen cada uno de ellos, después se elevan estas a ciertas potencias y se suman los resultados, se obtiene de nuevo el número.

Recordemos que una persona narcisista es aquella que “cuida demasiado de su arreglo personal, o se precia de atractivo, como enamorado de sí mismo” y el concepto viene del mito griego en el cual el joven y apuesto Narciso se enamoró de su propia imagen reflejada en el agua. En el concepto de números narcisistas la imagen reflejada sería la suma de las potencias de sus cifras, que, al ser el propio número, sería como el enamoramiento de Narciso de su propia imagen reflejada.

Narciso (1594-1596), del artista italiano Caravaggio, perteneciente a la colección de la Galeria Nazionale d’Arte Antica. Imagen de Wikimedia Commons

Empecemos este recorrido por la familia de números que recibe precisamente el apelativo de números narcisistas. Esta familia está formada por aquellos números que son iguales a la suma de las potencias de sus cifras elevadas a la cantidad de cifras que tiene el número. Por ejemplo, el número 153 es un número narcisista, puesto que, teniendo 3 cifras, que son 1, 5 y 3, se cumple que 13 + 53 + 33 = 1 + 125 + 27 = 153; o también, el número 1634, ya que 14 + 64 + 34 + 44 = 1 + 1296 + 81 + 256 = 1.634.

Los números narcisistas menores que 100.000 son: 1, 2, 3, 4, 5, 6, 7, 8, 9, 153, 370, 371, 407, 1.634, 8.208, 9.474, 54.748, 92.727 y 93.084.

Fijémonos en uno en concreto, el número narcisista 8.208. Este ha alcanzado una cierta fama por haber aparecido en la serie televisiva Los Simpson. Como puede leerse en el libro Los Simpson y las matemáticas del matemático y divulgador Simon Singh, la historia de ese y otros dos números que aparecen en un capítulo de la temporada 17 de esta serie es muy curiosa.

Dentro de la comunidad matemática es conocido que algunos de los guionistas y productores de la serie Los Simpson, así como de la serie Futurama, tienen estudios de matemáticas, y en general, de ciencias, lo que ha motivado que en ambas series aparezcan muchísimas referencias matemáticas. Simon Singh cuenta como, en particular, la profesora Sarah Greenwald, de la Universidad Estatal de los Apalaches, y el profesor Andrew Nestler, de la Universidad de Santa Mónica, empezaron a recoger todas esas referencias y a utilizarlas en sus clases de matemáticas. Cuando esto llegó al oído de los guionistas de la serie Los Simpson, en 2005, decidieron invitarlos a la lectura de un futuro episodio, ese que tendría el título Marge, Homer y el deporte en pareja. Cuando los dos invitados se marcharon, los guionistas se percataron de que en ese episodio no habían incluido ninguna referencia matemática, lo cual les pareció que había sido algo descortés hacia sus invitados y decidieron revisar el guion e incluir un guiño a las matemáticas.

Imagen del episodio Marge, Homer y el deporte en pareja, en la que aparecen tres números curiosos, uno de ellos un número narcisista, 8.208

Como se puede ver en la anterior imagen de ese capítulo, decidieron incluir en la pantalla del estadio de béisbol, una mención a la cantidad de público asistente, dando cuatro opciones. La primera 8.191, que es lo que se conoce como un número primo de Mersenne, los cuales son de la forma 2p – 1, en concreto, 213 – 1 = 8.191. La segunda es 8.128, que es un número triangular (véase la entrada El asesinato de Pitágoras, historia y matemáticas (y II)). La tercera cantidad era el número narcisista 8.208, que verifica que 8.208 = 84 + 24 + 04 + 84. La última opción era simplemente que no se podía conocer esa cantidad.

Es fácil observar que solo existe un número finito de números narcisistas. Veámoslo. Si tomamos un número con n cifras, se tiene que ese número es mayor que 10n – 1 y menor que 10n. Por otra parte, la suma de las potencias de sus cifras elevadas a la cantidad de cifras del número alcanza como mucho el valor de 9n + … + 9n (sumado n veces) = n x 9n. Pero resulta que para n > 60, se tiene que n x 9n n – 1, luego la suma de las potencias de las cifras del número elevadas a la cantidad de cifras nunca podrá alcanzar al número. Es decir, no existen números narcisistas con más de 60 cifras.

De hecho, solamente hay 88 números narcisistas (puede verse aquí la lista completa), como fue demostrado por D. T. Winter, en 1985. Además, el mayor de ellos solamente tiene 39 cifras, es

115.132.219.018.763.992.565.095.597.973.971.522.401.

El matemático británico G. H. Hardy (1877 – 1947), en su libro Apología de un matemático, dice en referencia a estos números…

Se trata de hechos excepcionales, ideales para las columnas de acertijos y similares que aparecen en la sección de pasatiempos del periódico para entretener a los aficionados a las matemáticas, pero no hay nada en ellos que atraiga mucho a un matemático.

Portada de la edición en castellano, de la editorial Capitán Swing, del libro Apología de un matemático, de G. H. Hardy

Este concepto puede extenderse a una familia un poco más amplia, la de los números que son iguales a la suma de las potencias de sus cifras elevadas a una cantidad fija cualquiera, no necesariamente la cantidad de cifras del número, que es el caso de los números narcisistas. Por ejemplo, el número 4.150, que puede expresarse como la suma de las potencias quintas de sus cifras (que son solo cuatro), así 45 + 15 + 55 + 05 = 1.024 + 1 + 3.125 = 4.150. En una nota en la revista Mathematical Gazette, de 1968, se sugiere el nombre de “powerful numbers”, que es el mismo nombre que reciben los números que en la anterior entrada del Cuaderno de Cultura Científica, Los números enamorados, se denominaron poderosos, por lo que llamaremos a estos otros, números potentes. Por otra parte, en el libro Mathematics on vacation, su autor, el químico, editor y matemático recreativo Joseph Madachy (1927 – 2014), les llama números “invariantes digitales perfectos”.

Los números potentes menores de 100.000 son: 1, 2, 3, 4, 5, 6, 7, 8, 9, 153, 370, 371, 407, 1.634, 4.150, 4.151, 8.208, 9.474, 54.748, 92.727 y 93.084, solamente dos más que los narcisistas, a saber, 4.150 y 4.151. El siguiente número poderoso, que además no es narcisista, es 194.979 = l5 + 95 + 45 + 95 + 75 + 95.

En la enciclopedia on-line de sucesiones de números enteros, en la información sobre la sucesión A023052, aparece un listado de los 255 números potentes conocidos. El más grande, que además no es narcisista, tiene 105 cifras y se obtiene al elevar cada una de sus cifras a la potencia 109 y sumarlas. Es …

926.141.173.758.288.802.620.975.817.393.837.795.715.817.835.556.117.230.343.321.424.553.048.655.411.019.641.033.929.959.544.403.221.763.375

A raíz del concepto de número invariante digital perfecto, Joseph Madachy define los “números invariantes digitales recurrentes”, que podríamos denominar también números potentes recurrentes. Un número es un invariante digital recurrente, de orden k, si al construir la sucesión de números, empezando por el mismo, formados por las sumas de las potencias k-ésimas de las cifras del número anterior, se llega de nuevo al número original en un número finito de pasos, llamado longitud del ciclo. Por ejemplo, el número 55 es un invariante digital recurrente de orden 3, ya que 53 + 53 = 250, 23 + 53 + 03 = 133 y 13 + 33 + 33 = 55, siendo longitud del ciclo igual a 3.

Veamos un ejemplo de orden 4, el número 1.138. Calculemos la sucesión asociada, 14 + 14 + 34 + 84 = 4.179, 44 + 14 + 74 + 94 = 9.219, 94 + 24 + 14 + 94 = 13.139, 14 + 34 + 14 + 34 + 94 = 6.725, 64 + 74 + 24 + 54 = 4.338, 44 + 34 + 34 + 84 = 4.514 y regresamos al origen, después de un ciclo de longitud 8, 44 + 54 + 14 + 44 = 1.138.

Tabla de números invariantes digitales recurrentes de órdenes, entre 2 y 8

Otra familia de números relacionada con los números narcisistas, pero a la que nadie parece haber bautizado, son aquellos números que son iguales a la suma de las potencias de sus cifras elevadas a la posición que ocupan en el número, empezando por la izquierda. Por ejemplo, los números 89, 175, 2.427 y 2.646.798 son de estos números, ya que:

81 + 92 = 8 + 81 = 89,

11 + 72 + 53 = 1 + 49 + 125 = 175,

21 + 42 + 23 + 74 = 2 + 16 + 8 + 2.401 = 2.427, y

21 + 62 + 43 + 64 + 75 + 96 + 87 =

2 + 36 + 64 + 1.296 + 16.807 + 531.441 + 2.097.152 = 2.646.798.

De nuevo, se puede demostrar que esta familia de números es finita. Más aún, no puede haber números de esta familia con más de 22 cifras. Veámoslo.

Si tenemos un número con n cifras, entonces el número es mayor que 10n – 1 y si además pertenece a esta familia, será menor que 9 + 92 + … + 9n, pero, por la fórmula para la suma de los primeros números de la serie geométrica, esta suma es igual a 9 x (9n – 1) / 8 n + 1 / 8. En consecuencia, 10n – 1 n + 1 / 8, que nos lleva, tomando logaritmos, a que n

De hecho, solo hay 19 números que verifiquen esta propiedad: 1, 2, 3, 4, 5, 6, 7, 8, 9, 89, 135, 175, 518, 598, 1.306, 1.676, 2.427, 2.646.798 y 12.157.692.622.039.623.539, y el mayor tiene 20 cifras.

Otra familia de números relacionada con los números narcisistas es la formada por los números de Munchausen, aquellos números que son iguales a la suma de sus cifras elevadas a ellas mismas. Por ejemplo, el número 3.435 es un número de Munchausen, ya que 33 + 44 + 33 + 55 = 3.435.

El nombre fue sugerido por el matemático e ingeniero de software holandés Daan van Berkel, en su artículo On a curious property of 3435 (2009), en referencia al barón de Munchausen. En los números de Munchausen cada cifra se eleva a sí misma, de la misma forma que el barón de Munchausen se eleva a sí mismo, tirando de su coleta, con lo cual consigue volar y evita caer en una ciénaga.

Ilustración de la edición francesa de 1862 del libro Las aventuras del barón de Munchausen de Rudolf Erich Raspe (1785), realizada por el ilustrador francés Gustave Doré (1832 – 1883), en la que el barón de Munchausen sale volando de una ciénaga tirando de su coleta hacia arriba. Imagen de Wikimedia Commons.

Esta es una propiedad muy rígida. El único número de Munchausen, salvo el número 1 que lo es trivialmente, es el número 3.435, como demostró Daan van Berkel. Luego, podemos decir que este es un número muy especial.

Aunque si observamos la definición nos encontramos con un problema. Si una de las cifras del número es el 0, entonces tenemos que sumar 00 y esto es un problema. ¿Cuánto vale 00? Aunque es una polémica no cerrada del todo, la posición de la comunidad matemática es que ese valor debe ser 1. En ese caso, como demostró Daan van Berkel, solo hay dos números de Munchausen 1 y 3.435.

Sin embargo, si admitiésemos que 00 = 0, o modificamos la definición para que solo se considerasen las cifras no nulas, entonces habría otro número de esta familia, el 438.579.088, que verifica que

44 + 33 + 88 + 55 + 77 + 99 + 88 + 88 = 438.579.088.

Número 3.435 realizado con las Tarjetas de Cumpleaños Art Nouveau de la diseñadora estadounidense Laura Beckman. Imágenes de la página de Laura Beckman

También se pueden definir los números de Munchausen opuestos, es decir, aquellos números que son iguales a la suma de sus cifras elevadas a ellas mismas, pero no cada una con la suya, sino en el sentido opuesto. Por ejemplo, si consideramos el número 325, sus cifras son 3, 2 y 5, y vamos a tomar sus potencias elevadas a las cifras, pero en el orden opuesto, 5, 2, 3, quedando 35 + 22 + 53 = 243 + 4 + 125 = 372, luego este número no es de Munchausen opuesto. De nuevo, existen solamente dos números en esta familia:

48.625 = 45 + 82 + 66 + 28 + 54,

397.612 = 32 + 91 + 76 + 67 + 19 + 23.

Escultura Passing Time (2011), del artista neozelandés Anton Parsons, en Christchurch (Nueva Zelanda). Imagen de la página web de Anton Parsons

Lo cierto es que el concepto de número narcisista ha generado una enorme familia de generalizaciones. A continuación, haremos un breve repaso por algunas de ellas.

A. Suma de dos cuadrados. Si existiera un número narcisista con dos cifras, lo cual ya sabemos que no existe, entonces este sería igual a la suma de los cuadrados de sus cifras. Se puede generalizar este concepto para números de más de dos cifras, pero dividiendo al número en dos “mitades” de cifras. Es decir, a esta familia pertenecen los números que son iguales a las sumas de los cuadrados de dos “mitades” del número. Veamos algunos ejemplos:

1233 = 122 + 332, 8833 = 882 + 332, 5.882.353 = 5882 + 23532,

1.765.038.125 = 17.6502 + 38.1252, 116.788.321.168 = 116.7882 + 321.1682.

B. Suma de tres cubos. De forma análoga, se pueden considerar aquellos números que son iguales a la suma de los cubos de tres “tercios” del número.

22 18 59 = 223 + 183 + 593,

166 500 333 = 1663 + 5003 + 3333.

C. Números factoriones. Estos números son aquellos que son iguales a la suma de los factoriales de sus cifras. Por ejemplo, 145 es un factorión, ya que

1! + 4! + 5! = 1 + 24 + 120 = 145.

Los números 1 y 2 son trivialmente números factoriones, ya que 1! = 1 y 2! = 2. Y el número 40.585 también es un número factorión, ya que

4! + 0! + 5! + 8! + 5! = 24 + 1 + 120 + 40320 + 120 = 40.585.

Resulta que estos son los únicos factoriones que existen. Supongamos que tenemos un número de n cifras, entonces este es mayor que 10n – 1, pero si es un número factorión, entonces es menor que la mayor suma posible de los factoriales de sus dígitos, que es n x 9!, de donde, 10n – 1 n x 9!. Pero resulta que, para n = 8 se obtiene que 107 = 10.000.000 > n x 9! = 2.903.040, luego no existen números factoriones de 8 cifras. Y, por inducción, se puede demostrar que ocurre para todos los n mayores o iguales que 8. Para n = 7, la suma máxima de los factoriales de las cifras que se puede obtener es 7 x 9! = 2.540.160, luego solo hay que comprobar los que son menores que esta cantidad. Y solo existen los cuatro anteriores.

D. Pares de números, o números “amigos”, para estas propiedades.

Por ejemplo, un par de números tales que la suma de los cuadrados de dos “mitades” de cada uno de ellos da el otro número, como los números 3.869 y 6.205, para los cuales

382 + 692 = 1.444 + 4.761 = 6.205 y 622 + 052 = 3844 + 25 = 3.869,

o el par de números

5.965 = 772 + 062 y 7.706 = 592 + 652.

Lo mismo para los cubos,

13 + 33 + 63 = 244 y 23 + 43 + 43 = 136,

o los factoriales, donde los tres números 169, 36.301 y 1.454 forman una cadena:

1! + 6! + 9! = 36.301, 3! + 6! + 3! + 0! + 1! = 1.454 y 1! + 4! + 5! + 1! = 169.

E. Números narcisistas salvajes. Estos números, al igual que los narcisistas, pueden ser expresados a partir de sus cifras, pero de una forma particular, las cifras deben de aparecer en el orden que aparecen en el número y pueden utilizarse las operaciones siguientes, suma, resta, multiplicación, división, potencia, radical y factorial.

Mostremos una pequeña colección de distintos números narcisistas salvajes

E incluso, se puede considerar que el orden de las cifras sea cualquiera, en cuyo caso se habla de números selfie. Un par de ejemplos serían

34.562 = 2 (3 5) x6! x4!y87.369 = (3! + 7) x8! / 6 + 9.

Social circle (2011), del artista neozelandés Anton Parsons. Imagen de la página web de Anton Parsons

Bibliografía

1.- Clifford A. Pickover, El prodigio de los números. Desafíos, paradojas y curiosidades matemáticas, Ma Non Troppo (ediciones Robinbook), 2002.

2.- Clifford A. Pickover, La maravilla de los números. Un viaje por los secretos de las matemáticas, sus desafíos y caprichos, Ma Non Troppo (ediciones Robinbook), 2002.

3.- Joseph Madachy, Mathematics on vacation, Charles Scribner’s sons, 1966.

4.- Wolfram Mathworld: Narcissistic Number

5.- Simon Singh, Los Simpson y las matemáticas, Ariel, 2013.

6.- G. H. Hardy, Apología de un matemático, Capitán Swing, 2017.

7.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A0230052 (números potentes o invariantes digitales perfectos)

8.- Wolfram Mathworld: Recurring Digital Invariant

9.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A032799

10.- Daan van Berkel, On a curious property of 3435 (2009) (arXiv:0911.3038)

11.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A046253 (números de Munchausen)

12.- Harvey Heinz, Narcissistic numbers

13.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A014080 (números factoriones)

14.- George D. Poole, Integers and the sum of the factorials of their digits, Mathematics Magazine, vol. 44, n. 5, p. 278-279 (1971).

15.- N. J. A. Sloane, The On-Line Encyclopedia of Integer Sequences, OEIS: sucesión A193069 (números narcisistas salvajes)

16.- I. J. Taneja, Different Types of Pretty Wild Narcissistic Numbers: Selfie Representations-I, RGMIA Research Report Collection, n. 18, Article 32, pp. 1-43 (2015).

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo ¿Pueden los números enamorarse de su propia imagen? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Construye tu propia calculadora de sumas y restas
  2. La magia de los números (el teorema de Moessner)
  3. Los números enamorados
Categories: Zientzia

Los colores del cielo

Tue, 2019/04/02 - 11:59
Imagen: Pixabay

Newton sugirió que los colores aparentes de los objetos dependen de qué color se refleja o dispersa más fuertemente para quien observa el objeto. En general, no hay una forma sencilla de predecir a partir de la estructura de la superficie, de la composición química o de cualquier otro factor qué colores reflejará o dispersará una sustancia. Eso no quiere decir que existan, sino que se basan en modelos matemáticamente muy complejos. Sin embargo, algo que la mayoría de nosotros vemos todos los días se puede explicar de una forma bastante simplificada a la par que instructiva: los colores del cielo

Thomas Young demostró experimentalmente que diferentes longitudes de onda de la luz corresponden a diferentes colores. La longitud de onda de la luz se puede especificar en unidades de nanómetros (nm; 1 nm = 10-9 m) o, alternativamente, en ångstroms (Å), el nombre de Anders Jonas Ångstrom, un astrónomo sueco que, en 1862, utilizó técnicas espectroscópicas para detectar La presencia de hidrógeno en el Sol. Un ångstrom es igual a 10-10 m. El rango del espectro visible para los humanos es de aproximadamente 400 nm (4000 Å) para luz violeta a, aproximadamente, 700 nm (7000 Å) para la luz roja.

Los pequeños obstáculos pueden dispersar la energía de una onda incidente de cualquier tipo en todas las direcciones, y la cantidad de dispersión depende de la longitud de onda. Como regla general, cuanto mayor sea la longitud de onda en comparación con el tamaño del obstáculo, menor será la dispersión de la onda por el obstáculo. Para partículas más pequeñas que una longitud de onda, la cantidad de dispersión de luz varía inversamente con la cuarta potencia de la longitud de onda. Por ejemplo, como la longitud de onda de la luz roja es aproximadamente el doble de la longitud de onda de la luz azul, la dispersión de la luz roja es solo alrededor de un dieciseisavo* de la dispersión de la luz azul.

Imagen: Pixabay

Con este simple dato ya sabemos por qué el cielo de mediodía de un día despejado es azul. La luz del Sol se dispersa por las moléculas y las micropartículas partículas de polvo presentes en las capas altas de la atmósfera. Todos estos obstáculos tienen dimensiones muy pequeñas en comparación con las longitudes de onda de la luz visible. Por lo tanto, en un día claro, la luz dispersa mucho más la luz de longitud de onda corta (luz azul) que la luz de longitudes de onda más largas y, por así decirlo, llena la luz azul llena el cielo de punta a punta. Debemos ser conscientes de que el color depende del observador. Cuando miras hacia arriba en un cielo despejado, es principalmente esta luz dispersada la que entra en tus ojos. El rango de longitudes de onda cortas dispersas (y la sensibilidad al color del ojo humano) conduce a la sensación de azul.

Imagen: Pixabay

Pero, ¿qué ocurre un día con neblina cuando observamos la puesta de sol o el amanecer? Lo que nuestro ojo recibe directamente del Sol es un haz de luz en el que las longitudes de onda más cortas se han dispersado completamente por el camino, no así las longitudes de onda más largas. De esta forma percibes el cielo alrededor del Sol poniente como rojizo.

Imagen: Pixabay

Si la Tierra no tuviera atmósfera, no habría dispersión de la luz, el cielo aparecería negro y las estrellas serían visibles durante el día. De hecho, comenzando en altitudes de aproximadamente 16 km, donde la atmósfera se vuelve bastante fina, el cielo se ve negro y las estrellas se pueden ver durante el día, como han descubierto los que hayan volado a gran altitud, incluidos los astronautas [2].

Imagen: Pixabay

Si la luz es dispersada por partículas considerablemente más grandes que una longitud de onda (como las gotas de agua en una nube), no hay mucha diferencia en la dispersión de diferentes longitudes de onda. Como todas las longitudes de onda se dispersan, el resultado de su mezcla es blanco. Blanco color nube.

Imagen: Sergio Cambelo / flickr

Ese azul grisáceo o parduzco que a menudo cubre las grandes ciudades es causado principalmente por partículas emitidas por motores de combustión interna (automóviles, camiones, calderas de calefacción [3]) y por plantas industriales. La mayoría de estas partículas contaminantes son invisibles, y varían en tamaño, desde los 10-6 m hasta los 10-9 m. Dichas partículas proporcionan una base a la que se adhieren gases, líquidos y otros sólidos. Estas partículas más grandes dispersan la luz y producen neblina. La gravedad tiene poco efecto sobre las partículas [4] hasta que se vuelven muy grandes. Pueden permanecer en la atmósfera durante meses si no se limpian por la lluvia, nieve o el viento en cantidad y tiempo suficientes.

Más información en Y el Sol se volvió azul

Notas:

[1] Un dieciseisavo (1/16) es 1 dividido entre 24.

[2] Por eso en la Luna, donde no hay atmósfera el cielo se ve negro y se ven las estrellas aun estando al sol. Los conspiranoicos suelen citar las imágenes del cielo lunar negro pero sin estrellas como prueba de que los viajes a la Luna fueron un montaje. Lo único que demuestran es que no saben de fotografía: si el sol está presente tienes que tener muy poco tiempo de exposición y el obturador casi cerrado para que se vean cosas que son muchísimo más brillantes para la cámara que las estrellas.

[3] Estas calderas funcionan con gasóleo, biomasa o…carbón. Por ejemplo, se estima que en Madrid Central a comienzos de 2019 aun estaban operativas 200 calderas de carbón y unas 4000 de gasóleo (fuente). Las calderas generan la mitad de las partículas que contaminan el aire (EEA).

[4] Que están en un fluido, en el aire, no en el vacío.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Los colores del cielo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Características de una onda periódica
  2. La luz como onda
  3. Reflexión y refracción de la luz
Categories: Zientzia

¡Salvad a las ranas!

Mon, 2019/04/01 - 11:59
Ranas. Imagen: Wikimedia Commons

Si un hongo llamado Batrachochytrium dendrobatidis no les tiene a usted y a toda su familia asustados y amenazados es porque no son ustedes una rana, un sapo u otro tipo de anfibio. Porque si lo fuesen, lo estarían. El Bd (acortemos) ha sido declarado recientemente como el patógeno más peligroso para la biodiversidad del que se tiene noticia hasta ahora: es responsable de la desaparición de 90 especies de anfibios y amenaza a más de 500. De ellas, 124 han reducido el número de sus ejemplares hasta en un 90% y no está claro que puedan llegar a recuperarse nunca. Los especialistas no saben a día de hoy cómo detenerlo.

Un estudio llevado a cabo en 2018 sugiere que el hongo se originó en la península de Corea y desde allí se diseminó por todo el mundo en animales infectados que se colaron en las cargas de exportación, ya fuese como polizones o como mercancías alimenticias o como mascotas. Hoy se puede encontrar en más de 60 países de todo el mundo y está causando estragos en América Latina, Asia y África.

Este patógeno se transmite por contacto directo o a través de aguas infectadas y ataca a los animales a través de la keratina presente en su piel, que forma parte del sistema respiratorio de los anfibios. Así, causa que se vayan asfixiando a la vez que deteriora su sistema inmune y termina causándoles un ataque cardíaco.

Suena terrible, y lo es, pero el Bd ha tenido al menos un aspecto positivo para las ranas y similares: estamos hablando de ellas y de las amenazas que sufren. Como les pasa a muchos animales menos agraciados que tigres, pandas, delfines, águilas y elefantes, sus penurias, incluidas aquellas que el ser humano les causa, pasan más desapercibidas y se les defiende menos, a pesar de ser parte imprescindible de muchos ecosistemas, necesarios para que se mantengan los equilibrios tróficos y dependientes de la conservación de los recursos naturales.

Y eso que son unos animales fascinantes de los que la mayoría no sabemos lo suficiente. Por si es su caso, aquí van algunas cosas sobre las ranas que quizá usted no sepa.

¿En qué se diferencia una rana de un sapo?

En lo que a su taxonomía se refiere, ranas y sapos forman parte del género Anuro y de forma generalizada se les llama anuros a ambos. A partir de aquí, las diferencias entre ambos son a nivel coloquial y popular, pero taxonómicamente no hay una categorización establecida.

Rana Silverstoneia flotator, originaria de Costa Rica y Panamá. Imagen: Wikimedia Commons

Se considera que las ranas son, en general, más pequeñas, de piel suave y brillante, y más gráciles, con patas más finas que les permiten dar mayores saltos. Por el contrario los sapos son más rugosos, de colores más discretos y más corpulentos, con saltos más pequeños. Las ranas ponen sus huevos en racimos mientras que los sapos los ponen en forma de ristras.

Sin embargo, no todas las especies cumplen todas estas características, y por eso no es una división oficial.

¿Por qué las ranas no se congelan en invierno?

Los anfibios han colonizado prácticamente todos los hábitats del mundo, y en algunos de ellos puede llegar a hacer mucho frío. Dado el porcentaje de agua que contiene su cuerpo, y que son por naturaleza animales de sangre fría, ¿cómo lo hacen para no congelarse en invierno?

Las ranas hibernan, como hacen otros animales, como respuesta al frío del invierno. Para hibernar, buscan un espacio que les proteja del tiempo y de los depredadores y se acomodan en él. Entonces su metabolismo se ralentiza de forma drástica y consiguen dormir durante meses utilizando para ello las reservas de energía que van acumulando durante las estaciones cálidas. Cuando vuelve a hacer calor, despiertan y salen de su escondrijo para volver a alimentarse y dedicarse a la gustosa tarea de aparearse.

Sapo común en plena reproducción. Imagen: Wikimedia Commons

Las ranas acuáticas pueden hacer esto bajo el agua, pero a diferencia de otros animales acuáticos, como las tortugas, que se pueden enterrar bajo el barro y obtener de él las pequeñísimas cantidades de oxígeno que requieren durante la hibernación, las ranas deben situarse cerca de corrientes de agua ricas en oxígeno e hibernar sobre el barro no bajo él. Muchas salen ligeramente del letargo y nadan lentamente de vez en cuando.

Las ranas terrestres hibernan en tierra, a menudo enterrándose bien bajo el suelo para situarse a salvo de depredadores y también huyendo del nivel de congelación. Otras se evitan el esfuerzo de cavar y enterrarse ubicándose en grietas lo suficientemente profundas de troncos o rocas para quedar fuera del alcance de cualquiera que pretenda darles un bocado.

Para evitar que el frío les haga daño mientras hibernan cuentan con un efectivo sistema anticongelante: una alta concentración de glucosa en sus órganos vitales evitan que se congelen. Pueden llegar a formarse algunos cristales de hielo en algunas partes del cuerpo, como por ejemplo la vejiga, y el animal parecerá muerto durante semanas pero cuando llegue la primavera y las temperaturas suban, esos cristales desaparecerán, el cuerpo de la rana estará intacto y ésta recuperará su actividad sin problema.

¿Cómo evitan deshidratarse en las estaciones secas?

Si bien la mayoría de los anfibios viven en lugares donde ninguna estación es tan seca como para suponer un problema, unas pocas se han adaptado para conquistar esos hábitats. En esos casos, practican la estivación, la versión veraniega de la hibernación: el animal entra en un estado durmiente como respuesta a las condiciones extremas temporales del entorno.

Para hacerlo, se entierran en el suelo, allí donde aun se conserva un poco de humedad y mientras duermen ponen en marcha un ingenioso truco: generan varias capas de piel muerta, formando una especie de capullo impermeable que les envuelve y les ayuda a conservar su propia humedad, dejando expuestos al exterior solamente los agujeros respiratorios para evitar asfixiarse. Cuando termina la estación seca y vuelven las lluvias, se liberan de su caparazón y regresan a la superficie para rehidratarse.

¿Por qué pasan de renacuajos a ranas?

Cuando nacen, las ranas no son ranas más pequeñas, sino un renacuajo, que a simple vista parece un animal de una especie totalmente distinta: una cabeza grande y redondeada con una ancha cola que les permite desplazarse y alimentarse en el agua. Pocas semanas después desarrollan las poderosas patas traseras que les ayudan a saltar fuera del agua y alimentarse en un terreno nuevo. No son las únicas que practican la metamorfosis, muchos peces e insectos lo hacen también. Pero ¿por qué?

Renacuajo de la rana bermeja, días antes de su metamorfosis. Imagen: Wikimedia Commons

Según la investigadora holandesa Anna ten Brink, se trata de una estrategia que permite a una especie aumentar potencialmente sus opciones de alimentación, y es una estrategia tan eficaz que, sin bien ha aparecido contadas veces a lo largo de la evolución, una vez que lo hace rara vez desaparece.

Ten Brink y su equipo partieron de la idea de que los animales que no se metamorfosean y siempre tienen el mismo tipo de cuerpo adaptado al mismo tipo de entorno, están bien preparados para comer un tipo de alimento durante toda su vida. Pero si ese entorno contiene otro tipo de alimento, ¿podrían los adultos incorporarlo si durante su crecimiento su anatomía cambiaba de una forma distinta?

La respuesta que observaron es que los animales esto rara vez ocurre, ya que entonces las crías tendrían más dificultad para nutrirse del primer alimento y un mayor porcentaje moriría antes de llegar a la edad adulta.

Aquí, la metamorfosis es una solución evidente: los animales jóvenes siguen adaptados al alimento original y los adultos cambian completamente de cuerpo para poder consumir el segundo. Claro que esto supone pagar un alto precio en forma de una gran cantidad de calorías y el riesgo de que el proceso salga mal y el animal sufra defectos que acorten notablemente su vida.

Incluso aunque salga bien, el periodo de metamorfosis es un momento de especial vulnerabilidad en el que no pueden huir ni defenderse en caso de ataque de un depredador. Por eso ten Brink especula que la metamorfosis sale adelante cuando la recompensa evolutiva es realmente buena, cuando los que la completan tienen a su alcance una alimentación muy nutritiva que les permite reproducirse numerosamente con éxito.

Referencias:

A deadly amphibian disease goes global – Science
The Evolutionary Ecology of Metamorphosis – The American Naturalist
¿Por qué un animal cambiaría su cuerpo por otro? – The New York Times
How do frogs survive winter? Why don’t they freeze to death – American Scientist
What’s The Difference Between a Frog and a Toad? – Live Science

Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista

El artículo ¡Salvad a las ranas! se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¡Salvad a la hija!
  2. ¿Por qué si nunca hemos vivido mejor que ahora el mundo nos parece cada vez peor?
  3. Las ventajas (para ti y para los demás) de ser egoísta de vez en cuando
Categories: Zientzia

Tega enseña lenguaje

Sun, 2019/03/31 - 11:59
Fuente: Affectiva

Tega cuenta historias a niños y niñas leyéndoles libros ilustrados. De vez en cuando les hace preguntas para conocer su opinión acerca de lo que les ha contado, saber si le entienden, interesarse por el significado de alguna palabra o conocer sus ideas sobre algún aspecto en particular de lo que les ha leído.

Al contar historias se mueve, adopta posturas diferentes y pone caras. También ilustra lo que cuenta con imágenes que proyecta en una pantalla. Además, se fija y registra la expresión facial y la disposición corporal de quien escucha el cuento; de esa forma sabe si le interesa y está atento a lo que dice. Y al acabar de leerle el libro, le pide que se lo cuente con sus propias palabras.

Tega es un robot con cubierta de peluche que ha sido desarrollado por un equipo del Massachusetts Institute of Technology (MIT) formado por ingenieros, informáticos y artistas. Lo han diseñado para que enseñe lenguaje a niños y niñas de corta edad, y fue presentado a finales de enero pasado en Hawai, en la AAAI Conference on Artificial Intelligence.

Tega ha demostrado ser competente en la tarea para la que fue creado. En el marco de un experimento leyó cuentos a niños y niñas de entre 4 y 6 años de edad. Lo hizo en sesiones semanales de una hora de duración. En un grupo las lecturas eran personalizadas. Cada vez que interactuaba con los chiquillos Tega aprendía, sabía más de sus habilidades y conocimientos verbales. De esa forma, para la siguiente sesión escogía un cuento más adecuado al nivel de competencia verbal de cada uno de ellos, tanto por las estructuras que eran capaces de manejar como por el vocabulario que conocían. Y además, iba sustituyendo algunas palabras por sinónimos menos conocidos.

En un segundo grupo las lecturas no eran personificadas. Tega escogía al azar la historia de una biblioteca de cuentos. Eso sí, cada dos semanas elevaba la dificultad del texto. Además de los dos grupos que interactuaron con el robot, el equipo utilizó un grupo de control que no interactuó con Tega.

Varias semanas después de terminar las sesiones, el equipo evaluó el conocimiento de vocabulario en los dos grupos experimentales y en el control. Todos los que habían interactuado con el robot habían mejorado sus conocimientos verbales, pero los del grupo con los que Tega se había relacionado de forma personalizada mejoraron más. En un test de conocimiento verbal cometieron un 23% menos de errores que antes de las sesiones con el robot. Y la tasa de error de quienes no habían interactuado de forma personalizada con él solo se redujo la mitad que la del grupo anterior. Los del grupo control no mejoraron.

Además de saber más vocabulario, los pequeños que habían interactuado con Tega de forma personalizada contaban historias más largas y más complejas que los otros niños, y su lenguaje corporal indicaba que prestaban una mayor atención al robot durante las sesiones.

No han creado Tega para que enseñe lenguaje como lo harían maestros y maestras. Lo han hecho para que sirva de apoyo al personal docente y para su uso bajo circunstancias especiales. Pero uno no puede dejar de pensar que cada vez son más los ámbitos en los que se diseñan robots para sustituir o “complementar” actividades humanas. Antes pensábamos que los robots se limitarían a la manufactura, limpieza y tareas repetitivas, en general. Pero ya hay muñecas sexuales robóticas, se proyectan androides que cuiden a personas y, como acabamos de ver, se crean robots capaces de enseñar porque, entre otras habilidades, pueden aprender.

Fuentes: Tega, a New Social Robot Platform; Tega; Smart and fluffy storytelling robot to be trialled in US classrooms

——————-

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Tega enseña lenguaje se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El aprendizaje continuo mejora la interacción de robots con humanos en lenguaje natural
  2. El lenguaje de la química
  3. Mestizajes: Intuición, arte y lenguaje, por Itziar Laka
Categories: Zientzia

¿Qué pasa en tu cerebro cuando duermes?

Sat, 2019/03/30 - 11:59

De la misma forma que el hígado, el corazón, los pulmones o los riñones no dejan de funcionar cuando duermes, el encéfalo tampoco lo hace. Si alguno de estos órganos lo hiciese el resultado es el mismo: la muerte. Pero, si la consciencia no está operativa, ¿a qué se dedica el cerebro mientras dormimos?

Los vídeos de ¿Preguntas frecuentes? presentan de forma breve y amena cuestiones que, probablemente, nos hayamos planteado en alguna ocasión. Los vídeos, realizados para la Cátedra de Cultura Científica de la UPV/EHU, se estrenan en el programa de ciencia Órbita Laika (@orbitalaika_tve), los lunes a las 22:00 en la 2 de RTVE.

Edición realizada por César Tomé López

El artículo ¿Qué pasa en tu cerebro cuando duermes? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. ¿Hemos intentando contactar con extraterrestres?
  2. ¿Cómo demonios funcionan las copas musicales?
  3. #Naukas16 Qué pasa cuando le das un péndulo a una máquina
Categories: Zientzia

Geología, Antropoceno y cambio climático

Fri, 2019/03/29 - 11:59

La Facultad de Ciencias de Bilbao comenzó su andadura en el curso 1968/69. 50 años después la Facultad de Ciencia y Tecnología de la UPV/EHU celebra dicho acontecimiento dando a conocer el impacto que la Facultad ha tenido en nuestra sociedad. Publicamos en el Cuaderno de Cultura Científica y en Zientzia Kaiera una serie de artículos que narran algunas de las contribuciones más significativas realizadas a lo largo de estas cinco décadas.

Nauru. Fuente: Wikimedia Commons

Tras su lanzamiento por Paul Crutzen en el año 2000, el alcance social y académico del Antropoceno ha crecido de una manera sorprendente. Este concepto se acuñó para materializar nuestra percepción de que las actividades humanas han cambiado el Sistema Tierra. El comportamiento de los océanos, la atmósfera, la superficie terrestre, la criosfera, la biosfera y el clima ya no es el mismo que ha caracterizado durante más de 11.000 años la época geológica en la que formalmente aún vivimos, el Holoceno.

El hecho de que los humanos podamos afectar de modo tan significativo el curso de la evolución geológica de nuestro planeta dio pie en 2009 a la creación del Grupo de Trabajo sobre Antropoceno que está examinando la posibilidad de la formalización e inclusión del término en la Tabla Cronoestratigráfica Internacional (conocida como la Escala del Tiempo Geológico). Ya que la historia de la Tierra anterior a la documentación humana sólo se puede reconstruir a partir de su registro en las rocas, este enfoque centrado en el análisis de las evidencias contenidas en los sedimentos recientes es fundamental para comparar adecuadamente las historias moderna y antigua de nuestro planeta y, por lo tanto, para medir la magnitud y la velocidad de la perturbación planetaria provocada por los humanos.

El Antropoceno se caracteriza por un conjunto de señales de naturaleza sedimentaria, biológica y química que se pueden encontrar en la mayor parte de la superficie terrestre. Algunas de estas evidencias tienen equivalentes en unidades geológicas más antiguas (por ejemplo, el enriquecimiento en metales), pero otras señales son completamente novedosas (como los radioisótopos artificiales o los plásticos dentro de los sedimentos). Estas evidencias reflejan una fase distinta en la historia de la Tierra, que se alejó de su estabilidad general holocena a partir de la Revolución Industrial y, en particular, desde la “Gran Aceleración” en el crecimiento de la población humana, la industrialización y la globalización a mediados del siglo XX, momento que se considera como el límite más adecuado para marcar su inicio.

Desde el punto de vista climático, el rápido aumento de los gases de efecto invernadero desde el siglo XIX (Figura 1) ha provocado un creciente ascenso de la temperatura y del nivel del mar, acompañados por una pérdida de hielo en los continentes. Este calentamiento ha alcanzado ya niveles más altos que los detectados durante el Holoceno y se acerca a los de otras etapas interglaciares del periodo Cuaternario.

Figura 1. Tasas de cambio en las concentraciones de gases de efecto invernadero desde el inicio de la Revolución Industrial. La década de 1950 marca una aceleración de su crecimiento (gráficos originales en W. Steffen, W. Broadgate, L. Deutsch, O. Gaffney y C. Ludwig (2015) “The trajectory of the Anthropocene: The Great Acceleration” The Anthropocene Review 2, 81-98). Imagen tomada de WWF (2018) “Informe Planeta Vivo-2018: Apuntando más alto”. M. Grooten y R.E.A. Almond (Eds.), Suiza.

La asociación de los humanos con las regiones costeras se remonta a las primeras civilizaciones, cuando nos concentramos en las desembocaduras de los ríos, deltas y estuarios, debido a la disponibilidad de alimentos abundantes y accesibles. Durante el siglo XX, la zona costera ha cambiado profundamente a medida que las poblaciones humanas iban creciendo y los ambientes costeros se ocupaban para la agricultura, la urbanización y la industria. Gran parte de la población mundial vive hoy en las áreas costeras con una densidad 3 veces superior al promedio mundial y la mayoría de las megaciudades planetarias también se encuentran en la costa. Sin embargo, los registros instrumentales y geológicos muestran que la velocidad de aumento reciente del nivel marino es anómala con respecto a los últimos miles de años y muchas zonas costeras se encuentran ahora amenazadas. Se ha observado globalmente una transición en el ascenso marino desde valores relativamente bajos durante el Holoceno superior (3 mm/año.

El estudio del nivel marino es un campo muy interdisciplinar y de creciente importancia. En el 1º informe de evaluación del IPCC (1990) no había referencia alguna a los cambios en el nivel del mar anteriores al siglo XX. Ya en el 3º informe de evaluación (2001) se incorporó el cambio del nivel marino a escalas de tiempo más largas, pero sólo en el 4º informe (2007) se agrupó la información geológica sobre el paleoclima en un solo capítulo, como asimismo se ha hecho en el 5º y último informe de evaluación (2013). Los registros instrumentales del nivel del mar comenzaron con el mareógrafo de Ámsterdam en 1682 y la altimetría de precisión por satélite se inició tras el lanzamiento del TOPEX/Poseidon a finales de 1992. Estos datos han demostrado que las velocidades de cambio del nivel del mar varían regionalmente y a escalas temporales de décadas debido a cambios en la densidad del océano. Es ahí donde los datos geológicos se hacen necesarios para poder situar estas estimaciones instrumentales en un contexto temporal a más largo plazo (Figura 2).

Figura 2. Fotografía del testigo, contenido en arena, principales especies de microfósiles (1: Entzia macrescens; 2: Trochammina inflata), elevación de la paleomarisma (PME), actividad de los radioisótopos Pb-210 y Cs-137 y distribución del Pb y Zn durante los últimos 300 años en un sondeo perforado en la marisma de Murueta (Reserva de la Biosfera de Urdaibai). Imagen modificada de A. García-Artola, A. Cearreta y E. Leorri (2015) “Relative sea-level changes in the Basque coast (northern Spain, Bay of Biscay) during the Holocene and Anthropocene: The Urdaibai estuary case” Quaternary International 364, 172-180. DOI: 10.1016/j.quaint.2014.06.040

Durante el siglo XX, el nivel del mar ha aumentado globalmente unos 30 cm y la magnitud del ascenso del nivel marino previsto para este siglo es un tema muy controvertido. Las últimas proyecciones del IPCC (2019) auguran un aumento medio del nivel del mar a finales del siglo XXI de 28–57 cm para un escenario con reducción drástica de las emisiones de efecto invernadero, y de 55–140 cm si hubiese un crecimiento de estas emisiones. Otras estimaciones recientes sugieren que el ascenso medio global del nivel del mar podría incluso superar los 150-200 cm en el año 2100 (Figura 3). Esta diferencia en las previsiones refleja las grandes incertidumbres que existen sobre el comportamiento futuro de los casquetes glaciares de Groenlandia y Antártida.

Figura 3. Las distintas proyecciones del nivel marino para el año 2010 realizadas a partir de modelos han variado mucho a lo largo del tiempo desde la publicación del Primer Informe de Evaluación del IPCC (AR1) en 1990 hasta el último Informe Especial sobre el Océano y la Criosfera (SROC) de 2019. Imagen modificada de M. Oppenheimer y R.B. Alley (2016) “How high will the seas rise?” Science 354, 1375-1377. DOI: 10.1126/science.aak9460

El aumento del nivel del mar tiene una amplia gama de efectos sobre las zonas costeras que incluyen la inundación y pérdida de marismas, la erosión de playas, dunas y acantilados, la incursión de agua salada en acuíferos y centros urbanos, y el desplazamiento general de los ecosistemas costeros hacia tierra. La magnitud de estos impactos y sus consecuencias estarán asociadas, además, con los efectos de otros procesos humanos que han estado operando en el litoral durante décadas, como la disminución del aporte fluvial de sedimentos, la extracción de aguas subterráneas o la ocupación de las tierras costeras.

La duración del Antropoceno hasta ahora ha sido geológicamente muy breve, equivalente a una vida humana, pero sus impactos ya han cambiado de manera irrevocable el curso futuro de la historia de nuestro planeta. Algunos de estos cambios son irreversibles, incluso si la humanidad y sus efectos ambientales desaparecieran mañana mismo, y sus consecuencias persistirán durante siglos, milenios y millones de años.

Para saber más:

C.N. Waters, J. Zalasiewicz, C. Summerhayes, A.D. Barnosky, C. Poirier, A. Gałuszka, A. Cearreta, M. Edgeworth, E. Ellis, M.A. Ellis, C. Jeandel, R. Leinfelder, J.R. McNeill, D. deB. Richter, W. Steffen, J. Syvitski, D. Vidas, M. Wagreich, M. Williams, A. Zhisheng, J. Grinevald, E. Odada, N. Oreskes, y A.P. Wolfe (2016) “The Anthropocene is functionally and stratigraphically distinct from the Holocene” Science 351, 137 (aad2622.1-aad2622.10). DOI: 10.1126/science.aad2622

C. Summerhayes y A. Cearreta (2019) “Chapter 6. Climate Change and the Anthropocene” En: J. Zalasiewicz, C.N. Waters, M. Williams y C.P. Summerhayes (Eds.), The Anthropocene as a geological time unit: A guide to the scientific evidence and current debate. Cambridge University Press, 200-241. DOI: 10.1017/9781108621359

Sobre los autores: Alejandro Cearreta y Ane García Artola pertenecen al Departamento de Estratigrafía y Paleontología de la Facultad de Ciencia y Tecnología de la UPV/EHU.

El artículo Geología, Antropoceno y cambio climático se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Verdín, eucaliptos y cambio climático
  2. Los ecosistemas acuáticos de África y el cambio climático
  3. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
Categories: Zientzia

Pages