Algunas cosas que los científicos pueden aprender de los programadores

Cuaderno de Cultura Científica - ven, 2018/05/18 - 12:00

Mi carrera científica tuvo un parón en 2012. O al menos entonces pensé que era un parón. Nada más licenciarme en física, en lugar de continuar directamente hacia un doctorado (como me hubiese gustado), las circunstancias me obligaron a buscar un empleo a tiempo completo. Tuve la suerte de encontrar uno, concretamente de ingeniero en una empresa de diseño de lentes.

Reconozco, con cierta vergüenza, que entonces pensaba que en el sector privado no podría aprender gran cosa en comparación con lo que podría aprender si hubiese continuado en la Universidad. Sin embargo hoy, retornado a la investigación desde 2015, utilizo a diario muchas de las herramientas que aprendí en mi etapa como ingeniero.

Dos destacan sobre el resto: los tests unitarios y el control de versiones. Son herramientas enormemente obvias y de dominio público. Tanto, que he dudado sobre la utilidad de publicar o no el presente artículo. Si al final me he decidido a hacerlo es debido al convencimiento, basado en mi experiencia personal, de que muchos profesionales del mundo científico desconocen por completo su existencia.

Si hay algo en el mundo real que se parece al concepto fantástico de “palabras mágicas” es el de comando en programación. Escribes las palabras correctas, y el ordenador hace lo que quieres. Se parece, pero no es igual. Para empezar, en programación no hay ninguna magia de por medio. Y quizá más importante, lo realmente relevante es la lógica detrás de los comandos y no los propios comandos. Sin embargo, hay un paralelismo con las “palabras mágicas” sobre el que quiero llamar la atención: basta un error tipográfico, o un comando mal utilizado, para que todo se vaya al traste. Sabido esto, sorprende que existan programas informáticos con miles e incluso millones de líneas, escritos entre varios programadores, con diferentes versiones a lo largo de los años y a menudo dependiendo de otros programas y submódulos, … y que a pesar de todo funcionen. ¿Cuál es su secreto?, ¿cómo hacen para no meter la pata?

Bien pensado, la pregunta tiene especial relevancia para los investigadores científicos. Para empezar, muchos de nosotros programamos en nuestro día a día. Pero es que además nos enfrentamos a un problema similar al de un proyecto de ingeniería cada vez que escribimos una publicación: al fin y al cabo, una publicación también es un proyecto complejo, que debe tener consistencia interna (como poco), a menudo con varios autores y con varias versiones a lo largo del tiempo.

Los programadores acumulan décadas de experiencia en este tipo de problemas. Sus métodos y herramientas son notoriamente públicos y, a pesar de ello, sorprendentemente desconocidos para una enorme fracción de los profesionales científicos. Quizá valga la pena aprender de ellos.

El propósito de este artículo es llamar la atención sobre la mera existencia de este tipo de herramientas. Usaré como ejemplo dos de ellas, aquellas que me resultaron más útiles. Concretamente los tests unitarios y el control de versiones.

Espero con ello que, como mínimo, la próxima vez que pierdas una tarde buscando un error en un trozo de código que ayer funcionaba perfectamente, o la próxima vez que abras una carpeta con doce versiones de tu tesis (y te sientas sucio), o tengas cualquier otro problema relacionado con la gestión de información, sepas que no estás sólo… que casi seguro alguien ha tenido el mismo problema antes que tú, y ha creado herramientas para evitarlo. Y como máximo, que quizá nunca más te vuelva a suceder algo así.

Ejemplo extraído de XKCD cómics

Tests unitarios

La idea detrás de los tests unitarios consiste en escribir mini programas que se aseguren de que todo funciona cómo esperamos.

Veamos un ejemplo: imagina que quieres escribir una (sencillísima) función para sumar dos números, algo como:

suma(x, y):

return (x + y)

Un test obvio sería, por ejemplo:

asegúrate de que suma(2, 3) = 5

Otros menos obvios serían, por ejemplo, probar a sumar un número negativo:

asegúrate de que suma(2, -3) = -1

O un número no entero:

asegúrate de que suma(1.1, 2.3) = 3.4

O probar a introducir valores extraños, como texto:

asegúrate de que suma(1, “abc”) = Error

Esta pequeña batería de tests se guarda para que las comprobaciones puedan ser repetidas cada vez que se quiera. Cualquier edición futura de la función deberá pasar, al menos, los mismos tests y quizá otros nuevos. Si en el futuro alguien, por error, modifica la función suma así:

suma(x, y):

return (x – y)

los tests nos indicarán inmediatamente que algo va mal con nuestra función suma.

Nuestro ejemplo parece (y es) bastante tonto, pero no olvidemos que el código está vivo. Lo que hoy empieza como una o dos funciones facilonas, mañana puede crecer, y en un año contener cincuenta funciones interrelacionadas entre sí. Un solo error en una de ellas puede producir un desastroso efecto dominó. Los tests, cuando están bien escritos, facilitan muchísimo la tarea de localizar errores.

Como ventaja adicional, leer los tests correspondientes a una función que no esté bien documentada puede ayudarnos a entender qué pretendía el autor (a menudo nosotros mismos hace seis meses) al escribirla.

Por otro lado, programar sabiendo que cada función que escribamos deberá ser comprobada por los tests nos forzará a programar de un modo más lógico y modular.

Por último, si compartes tu código con un potencial usuario (que probablemente seas tú mismo en un futuro), lo primero que hará este será comprobar que todos los tests se pasan con éxito también en su equipo. Si la respuesta es no, probablemente signifique que el programa no se ha instalado correctamente. Sea como sea, el nuevo usuario estará alertado, y encontrar el problema será relativamente sencillo.

Me interesa, ¿cómo empiezo?

Aunque la idea detrás de los tests unitarios es muy general, la forma específica de implementarlos de forma práctica dependerá del lenguaje de programación concreto que uses. ¿Cómo empezar a usarlos?… sí, lo has adivinado, googlea “unit testing” + .

Control de versiones

Los programas informáticos (y también los textos) evolucionan en el tiempo. Crecen, cambian, se actualizan, … La idea básica detrás del control de versiones es llevar un registro ordenado y comentado de todos los cambios que se han realizado sobre el código, con la posibilidad de, por ejemplo, comparar el mismo archivo en dos momentos distintos o volver a una versión antigua en caso de que “rompamos” algo en la actual.

A diferencia de, por ejemplo, las copias de nuestro código guardadas en servicios como Dropbox o Google Drive, el control de versiones implica registrar solamente aquellas actualizaciones que se consideran importantes, junto con una descripción de la lógica detrás del cambio o conjunto de cambios.

Como bola extra, servicios como github o bitbucket permiten publicar fácilmente en la red el conjunto de código + control de versiones. Esto es especialmente útil en situaciones como las siguientes:

  • Si estás escribiendo código con varios colaboradores.
  • Si has usado tu código en un artículo científico y quieres enlazarlo. Si quieres que los resultados sean reproducibles por parte de un lector interesado, es condición necesaria (pero no suficiente) enlazar exactamente a la misma versión que tú utilizaste en tu análisis.
  • Si quieres dar a conocer tu código.

Ilustración 1 Ejemplo de un registro de GitHub. Los “commits” aparecen ordenados cronológicamente, y cada uno corresponde a una modificación lo suficientemente importante como para merecer ser comentada. Haciendo click sobre los commits (Fuente aquí) se pueden ver en todo detalle los cambios efectuados.

Me interesa, ¿cómo empiezo?

El sistema de control de versiones más popular actualmente es git, y se puede obtener gratuitamente. El primer encontronazo puede ser un poco impactante si no estás acostumbrado a las aplicaciones de consola. El uso de interfaces gráficas puede ayudar bastante durante las primeras etapas. En particular, yo utilicé una llamada SourceTree hasta que me acostumbré a usar solamente la consola de comandos.

No quiero complicarme

La primera reacción de la mayoría de científicos que conozco al saber de estos métodos es considerarlos demasiado complejos y/o alejados de sus especialidades. Irónicamente, suelen desarrollar sus propios métodos “ñapa”, que acaban siendo igual de complicados (o más), pero mucho más inseguros e ineficientes.

El hecho es que escribir un artículo científico, un trozo de software científico o una tesis son procesos complejos. Y lo son independientemente de las herramientas que uno use. Los programadores tienen décadas de experiencia en este tipo de problemas de gestión de la información… ¿por qué no usar sus herramientas de probada eficacia en lugar de reinventar la rueda?

Este post ha sido realizado por Pablo Rodríguez (@DonMostrenco) y es una colaboración de Naukas.com con la Cátedra de Cultura Científica de la UPV/EHU.

El artículo Algunas cosas que los científicos pueden aprender de los programadores se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Aprender ciencia conociendo a los científicos
  2. Una nueva investigación muestra que explicar cosas a la gente “normal” puede ayudar a los científicos a ser mejores en su trabajo
  3. Científicos, animalistas y el uso de animales para investigación
Catégories: Zientzia

Wills faktorea

Zientzia Kaiera - ven, 2018/05/18 - 09:00
Ziortza Guezuraga Lucy Willsek egun ezinbestekoa den azido folikoa aurkitu zuen, haurdunaldian anemia makrozitikoa sendatu eta prebenitzeko nutrizio-osagaia.

1. irudia: Lucy Wills hematologoa lanean. (Argazkia: Wikipedia)

Haurdunaldian zeharreko anemia makrozitikoaren ikerketan Lucy Wills hematologoak faktore nutrizional bat aurkitu zuen legamian, anemia hori prebenitu ez ezik, lehengoratu egiten zuena.

Legamiaren osagaietako batek gaitz hori sendatu eta prebenitzen zuela deskubritu arren, Willsek ez zuen azido folikoa identifikatu, 1941. urtera arte isolatu ez zena. Hori dela eta, Wills Faktore izenarekin ezagutu zen 40ko hamarkadara arte eta, ordutik, folato modura, azido folikoaren forma naturala baita. Substantzia hori gaur egun ezinbesteko gehigarria da haurdun daudenentzat.

Cambridgen eta Royal Free Hospital School of Medicinen graduatu ostean, Indiako Tata Trusts erakundearen diru-laguntzari esker, ikertzailea britainiarrak Mumbaira bidaiatu zuen 1928an eta haurdunaldian zeharreko anemia makrozitikoaren arrazoia ikertzen hasi zen. Gaixotasun hori ikertzeko erabakia ez zen halabeharrezko kontua izan.

Margaret Balfour Mumbaiko Haffkine Institutuko Emakumeen Osasun Saileko burua zen. Hara jotzen zuten osasun arrunterako irisgarritasunik ez zuten emakumeek. Horrela, haurdunaldian zehar anemia mota baten prebalentzia handia zela hauteman zuen, emaitza larriekin.

Ez dago arrazoien inguruko xehetasunik, baina Balfour Lucy Willsekin jarri zen harremanetan eta horrela Wills Indiara zenbait bidaia egiten hasi zen elikagai-faktoreek orduan haurdunaldiko anemia kaltegarri izenarekin ezagutzen zenarekin zerikusirik ote zuten zehazten saiatzeko.

Ikerketa eta halabeharra

2. irudia: Azido folikoa.

Ikerketa horietan Willsek Mumbaiko gizarte-klase ezberdinetako emakumeen elikadura-azturak alderatu zituen eta nolabaiteko korrelazioa hauteman zuen elikadura-azturen eta haurdunaldian zehar anemia pairatzeko probabilitatearen artean.

Gainera, egiaztatu zuen emakume musulmanak zirela elikadura aldetik gabezia gehien zituztenak. Eta anemia pairatzeko aukera gehien zutenak ziren.

Garai hartan gaixotasuna haurdunaldiko anemia kaltegarri izenarekin ezagutzen bazen ere, Lucy Willsek frogatu zuen anemia kaltegarria eta anemia makrozitikoa egiaz bi gaixotasun ezberdin direla.

Izan ere, biek B12 bitamina falta badute ere, megaloblastoak dituzte, eta baita tamaina handiko globulu gorriak ere; haurdunaldian zeharreko anemia makrozitikoan ez dira anemia kaltegarrian ematen diren zenbait sintoma agertzen, esate baterako, aklorhidria (urdail-azidoa ekoizteko gaitasunik eza).

Are gehiago, anemia makrozitikoa pairatzen zuten pertsonek ez zuten erantzuten B12 bitamina puruaren bidezko tratamenduaren aurrean, anemia kaltegarria tratatzeko baliagarri zen ordea. Aitzitik, pazienteei B12 bitamina “gordina” ematean, hots, purifikatu gabea ematean, hobera egiten zuten.

Egindako behaketetan oinarrituta, hala haurdun zeuden emakumeen elikadura-azturei dagokienez, nola B12 bitamina bidezko tratamenduaren behaketei dagokienez, Willsek erabaki zuen beste elikadura-faktoreren batek ere egon behar zuela, B12 bitamina faltatik harago, gaixotasunarekin lotuta.

Esperimentuak egiten hasi zen sagu albinoekin, anemiaren gabeziak gainditzeko gehigarri bila. Ikerlaria, ordea, infekzio arrunt bat (Bartonella muris, saguetan anemia eragiten duena) animalien anemiarekin interakzioan sartuko ote zen kezkatzen zuen.

3. irudia: Marmite pasta oso ezaguna da Erresuma Batuan eta baita Australian ere. Herrialde hauetan gosarietan ohiko elikagaia da. (Argazkia: Sky News)

Horrenbestez, tximuekin ikertzen hasi zen. Ezagutzen ez diren arrazoiak direla medio, Willsek Marmite, legamiaren aterakin bidezko pasta jangarri merke bat, eman zion emaitza bereziki txarrak ematen ari zen primateetako bati. Eraginak ikusgarriak izan ziren.

Ondoren, haurdun zeuden emakumeetan proba egiten hasi zen substantzia ugarirekin eta legamiaren aterakina eraginkorra zela frogatu zuen. Ezin izan zuen zehaztu faktore erabakigarria zein ote zen eta Wills Faktore izena hartu zuen. 1941. urtean isolatu zen azido folikoa ziazerban.

Gaztaro viktoriarra

Lucy Wills Sutton Coldfielden (Birminghametik hurbil, Erresuma Batua) jaio zen 1888ko maiatzaren 10ean, ekonomia-egoera ona zuen familia batean. Cheltenham Ladies’ Collage izeneko zentroan egin zituen ikasketak. Zentro hura abangoardiazkoa zen, eta ordura arte soilik maskulinoak ziren ikaskuntzetan hezkuntza-estandar altuak eskaintzen zituen. Zentro horiek fenomeno viktoriarra ziren eta giro ekonomiko eta intelektual pribilegiatua zuten arren, muturreko eta aurrerakoitzat hartzen ziren.

1907. urtean Cambridgeko Newnham College delakoan ikasketak egiten hasi zen. Bertan Botanikan eta Geologian graduatu zen 1911n. Urte batzuk lehenago Annie Russell Maunderri gertatu bezala, Willsek ere ez zuen Cambridgeko gradudun titulua jaso.

1928an, Cambridge emakumeen artean tituluak banatzen hasi zenean, Lucy Willsek “lizentziatura titular” bat jaso zuen, unibertsitate horrek 1928 eta 1941 bitartean emakumeei ematen zien ziurtagiri eta lizentziatura arteko gradu moduko bat.

1915ean Medikuntzako ikasketak hasi zituen London Royal Free Hospital School of Medicine for Women izenekoan, eta bertan lizentziatu zen 1920an, 32 urterekin. Behin lizentziatu ostean, medikuntzan jardun beharrean, ikerketa eta irakaskuntzan murgiltzea erabaki zuen Londreseko zentro bereko Kimika Patologiako sailean. 1928. urtean Margaret Balfour berarekin harremanetan jarri zen arte.

Indian ibili ondotik, Lucy Wills Londreseko Royal Free ospitalera itzuli zen 1939an. Bertan patologo modura lan egin zuen eta, beranduago, patologiako buru modura, 1947an erretiroa hartu zuen arte. Erretiroan ez zuen alboratu zientzia, eta Hegoafrika eta Fijin aritu zen lanean elikadurak osasunean dituen eraginak ikertzen. Bere bizitzako azken hamar urtetan, 1964an zendu zen arte, tokiko gobernuko kide izan zen Chelseatik.

Erreferentziak:

———————————————————————–

Egileaz: Ziortza Guezuraga (@zguer) kazetaria da eta Euskampus Fundazioko Kultura Zientifikoko eta Berrikuntza Unitateko zabalkunde digitaleko teknikaria.

——————————————————————

The post Wills faktorea appeared first on Zientzia Kaiera.

Catégories: Zientzia

El ir y venir de las modas educativas

Cuaderno de Cultura Científica - jeu, 2018/05/17 - 17:00

Marta Ferrero

No hay que confundir innovación educativa con moda educativa pero, ¿cómo hacerlo?

Las modas educativas han existido siempre. Por moda educativa se entiende aquí a cualquier propuesta metodológica o recurso educativo que, en un momento dado, se cuela con furor en un determinado distrito escolar y, transcurrido un tiempo más o menos extenso, desaparece sin dejar prueba sólida alguna de haber contribuido al aprendizaje de los alumnos.

No todas las modas educativas son iguales. Hay modas “inofensivas”, ya que no implican cambios ni medidas significativas de ningún tipo, como aquella que introdujo la música de Mozart en las aulas para mejorar el rendimiento cognitivo de los alumnos. Y hay modas claramente perjudiciales, bien porque suponen un gasto sustancial de tiempo y dinero que pueden dedicarse a metodologías con eficacia probada (Busso y Pollack, 2014), bien porque pueden dificultar o impedir el aprendizaje de todo el alumnado o, como mínimo, de una parte del mismo (Carnine, 2000). Un ejemplo del primer caso, en referencia a las modas perjudiciales, es la aplicación de la teoría de las Inteligencias Múltiples en las aulas (Hodge, 2005). Mientras que un ejemplo del segundo caso es (o, quiero pensar, fue) la adopción del método global para la enseñanza inicial de la lectura (Stahl, 1999). Son estas últimas modas las que centran el contenido de este post.

Antes de continuar, conviene aclarar que el término moda educativa no es irremediablemente sinónimo de innovación educativa. Una moda educativa no se apoya en ninguna teoría válida ni está respaldada por estudios científicos que demuestren su eficacia. Habitualmente, su difusión viene de la mano de determinadas empresas o personas afines que logran popularizarla entre los responsables de la formación continua del profesorado, las autoridades educativas o los propios docentes a través de libros, publicaciones periódicas o estudios preliminares de baja calidad (Slavin, 1989). Por el contrario, una innovación educativa puede referirse a cualquier elemento novedoso que se introduce en un sistema educativo o colegio y conduce a un cambio en las ideas, prácticas, productos o servicios del mismo (Carrier, 2015). Este cambio puede estar o no respaldado por la evidencia.

¿Cómo se popularizan las modas educativas?

En el año 2017, Nathalie Carrier publicó un trabajo fruto de su tesis doctoral que tenía como objetivo determinar qué estrategias se habían utilizado para difundir siete modas educativas concretas y qué lugar ocupaba la evidencia en este fenómeno, aunque ella emplea el término innovación. Los medios que examinó para determinar cómo se difunden las modas educativas fueron revistas de divulgación educativa y comerciales, periódicos locales y blogs. Para analizar el contenido de estos medios, utilizó seis criterios de persuasión recogidos en la literatura sobre psicología social: Compatibilidad con las ideas previas, accesibilidad para su uso mediante explicaciones claras, practicidad para el trabajo en el aula, evidencia o calidad de la investigación que lo avala, credibilidad de las fuentes de las que procede la información y atractivo, referido a si la innovación resulta profesional, personalizada y/o divertida. Para ser consideradas populares, las modas analizadas tenían que cumplir al menos cuatro de un total de seis requisitos como, por ejemplo, poseer una entrada en diez blogs diferentes, contar con un hashtag en Twitter o una página en Facebook o haber sido empleadas por 10.000 individuos, 10 colegios o 5 distritos escolares.

A continuación, se presentan las conclusiones principales de su trabajo. En general, las dos estrategias más utilizadas para promocionar las modas educativas fueron, en primer lugar y a gran distancia del resto, el atractivo y en segundo lugar la credibilidad percibida, por delante de la evidencia, la practicidad, la accesibilidad y la compatibilidad. Junto a esto, los medios recurrían a un lenguaje emotivo o descriptivo, más que a uno basado en la evidencia disponible, para publicitar la moda en cuestión. Además, apenas unos pocos documentos citaban estudios de investigación sobre las modas anunciadas para determinar la efectividad de las intervenciones y ninguno de ellos describía o exploraba en profundidad dichos estudios. Más bien, el tipo de evidencia en la que se apoyaban los documentos consultados eran estudios informales, anécdotas basadas en experiencias personales o datos estadísticos generales sobre los problemas que abordaban las modas o sobre su uso.

La información sobre un determinado método educativo puede sonar convincente al mostrarse adornada con historias y anécdotas emotivas o referencias a fuentes afines creíbles. Pero, a la vez, esta información puede no estar corroborada sino simplemente basada en argumentos incorrectos y rudimentarios. Por esta razón, la autora recomendaba a los docentes estar alerta ante las influencias y sesgos que pueden producir las estrategias usadas para difundir las modas educativas. Junto a esto, les aconsejaba ser prudentes y formular preguntas críticas sobre dichas modas como, por ejemplo, qué estudios cuestionan su eficacia o, al menos, cuestionan los inconvenientes potenciales de la misma. Para terminar, Carrier sentenciaba que las estrategias detectadas a través de su trabajo de investigación pueden conducir a la difusión de modas ineficaces, inútiles e incluso perjudiciales para los alumnos.

En 1989, Robert E. Slavin describía las etapas por las que pasan las modas educativas hasta popularizarse dentro de la comunidad educativa. A modo de resumen, este investigador situaba como primera etapa la publicación de un método concreto en un libro, publicación periódica popular o evento educativo, seguida por la presentación de resultados preliminares y prometedores, aunque frecuentemente con pruebas muy deficientes. A pesar de ello, el método se expande entre algunos distritos escolares, más tarde entre otros colegios entusiastas de la innovación para hacerlo más tarde entre los responsables de la formación del profesorado, inspectores de educación, etc. Por último, el método termina expandiéndose rápidamente al resto de colegios a través de breves talleres impartidos o bien por los propios creadores del método o bien por formadores profesionales o bien por personal del centro formado ex profeso para ello. Desafortunadamente, solamente cuando el programa ya está de moda y muchos profesores lo están aplicando en sus aulas, comienzan a hacerse evaluaciones rigurosas de su eficacia. De hecho, para cuando comienzan a publicarse estudios de calidad y revisiones, con resultados a menudo negativos, ya es tarde. También ocurre con frecuencia que, a estas alturas, el interés por el método ya ha disminuido y es otra moda la que ha comenzado a despertar entusiasmo entre el profesorado.

¿Qué se puede hacer para evitar que las modas educativas se cuelen en los colegios?

La forma de frenar este péndulo, este ir y venir de las modas educativas, sostiene Slavin (1989), es cambiar las reglas del juego bajo las que las innovaciones educativas son elegidas, implementadas, evaluadas e institucionalizadas. El autor afirma que la comunidad educativa tiene que demandar evaluaciones rigurosas sobre las propuestas educativas que se ofertan antes de adoptarlas. También subraya la necesidad de reemplazar los cursos y talleres de formación breves por otros más extensos que incluyan un seguimiento a medio y largo plazo para comprobar si una determinada propuesta educativa está funcionando o no. Este seguimiento, esta evaluación de la eficacia de la propuesta, ha de incluir grupo experimental y control, con medidas de pre y postest (a poder ser estandarizadas) y garantizando que la aplicación de la propuesta en el aula se ha evaluado bajo condiciones reales y durante períodos de tiempo realistas. Además, sería recomendable que esta evaluación se hicieran primero a pequeña escala y después a gran escala.

Ya en el año 2006, Ben Goldacre, científico y divulgador, advertía de la necesidad de dotar al profesorado de las herramientas y autonomía suficientes para juzgar críticamente si un método educativo dispone o no de pruebas suficientes y válidas para su implementación en las aulas, lo cual favorecería que los docentes dejaran de depender de las injerencias externas (opiniones de expertos, ideologías de uno y otro color, etc.). Sin embargo, son varias las señales que ponen de relieve que aún estamos lejos de este objetivo. Por poner solamente algunos ejemplos, los profesores tanto en formación como en activo, dentro y fuera de nuestro país, albergan hoy en día un elevado número de ideas erróneas sobre teorías y métodos educativos (Cunningham, Perry, Stanovich & Stanovich, 2004; Dekker, Lee, Howard-Jones, & Jolles, 2012; Echegaray-Bengoa & Soriano-Ferrer, 2015; Ferrero, Garaizar, & Vadillo, 2016; Fuentes & Risso, 2015; Tardif, Doudin, & Meylan, 2015; Washburn, Mulcahy, Musante, & Joshi, 2017). Además, consultan más revistas divulgativas que científicas (Ferrero et al., 2016), a las que por cierto consideran menos fiables, accesibles y útiles que los talleres y cursos de formación (Landrum, Cook, Tankersley & Fitzgerald, 2002). Por último, la formación que reciben los estudiantes de educación en métodos de investigación, estadística, búsqueda en bases de datos o lectura de artículos científicos es insuficiente (Ferrero, 2018) y puede impedir que los futuros maestros puedan beneficiarse de los avances científicos en materia educativa.

Si nuestra sociedad aspira a una educación basada en las mejores pruebas disponibles y no en modas que vienen y van, es fundamental mejorar la cultura científica de todos los agentes de la comunidad educativa. Mientras esto ocurre, se presentan a continuación diez señales de alerta que pueden emplear los docentes para detectar prácticas educativas sin pruebas válidas sobre su eficacia (Lilienfeld, Ammirati & David, 2012).

Fotograma de “The Simsons”, serie creada por Matt Groening para Fox Broadcasting Company

Diez señales de alerta para detectar prácticas pseudocientíficas

1. Falta de falsabilidad y uso excesivo de hipótesis ad hoc

La falsabilidad se refiere a la capacidad de refutar una teoría con la ayuda de la evidencia. Una forma de convertir una teoría en irrefutable es usando hipótesis ad hoc. Esto es, invocando nuevas hipótesis sobre un determinado fenómeno a los resultados obtenidos para explicar por qué no se han confirmado las predicciones de la teoría. Por ejemplo, ante la inferioridad del método global frente al alfabético en la enseñanza de la lectura, los defensores del primero podrían alegar que las tareas empleadas para medir la velocidad y precisión lectoras no son las adecuadas.

2. Falta de autocorrección

Frente a las correcciones graduales que se hacen constantemente a las afirmaciones científicas, las pseudociencias tienden a mantenerse estancadas a pesar de que cada vez haya más evidencia en contra de lo que defienden. Un ejemplo de esta falta de autocorrección se puede observar en torno a la teoría de los estilos de aprendizaje. A pesar de la cada más abundante y sólida evidencia sobre su invalidez, su uso está aún muy generalizado en las escuelas.

3. Énfasis en la confirmación

El sesgo de confirmación consiste en buscar únicamente evidencia que apoya las hipótesis propias a la vez que se ignoran o reinterpretan de forma selectiva aquellas que van en contra. Este sería el caso, por ejemplo, del método Berard, Para defender su eficacia ante múltiples problemas de aprendizaje y conducta (ver la última señal de alerta), sus creadores aportan en la web oficial diversos testimonios de clientes que afirman que el método ha cambiado sus vidas. Sin embargo, esta web no contiene ninguna mención sobre la posibilidad de que el método puede no funcionar en todos los niños.

4. Evasión de la revisión por pares

Aunque no es perfecta, la revisión por pares proporciona cierta protección frente a la investigación de baja calidad. Brevemente, ésta consiste en la revisión de los trabajos de investigación por parte de varios investigadores independientes, a menudo tres o más, antes de su publicación. Sin embargo, no todas las revistas exigen una revisión por pares para publicar un trabajo de investigación. Este es el caso, por ejemplo, de Brain Gym. Este método de gimnasia cerebral, que llegó a utilizarse en más de 80 países (Hyatt, 2007), incluye en su web oficial una pestaña con un extenso listado de estudios de investigación que supuestamente demuestran su eficacia. Sin embargo, la mayoría son estudios cualitativos. Y, entre los que son experimentales, solamente dos han sido publicados en revistas de revisión por pares.

5. Confianza excesiva en pruebas basadas en anécdotas y testimonios

La suma de anécdotas no equivale a hechos. Las anécdotas son difíciles de verificar, tienen una representatividad muy cuestionable y siempre son muy vulnerables a múltiples explicaciones alternativas. Un claro ejemplo del uso de anécdotas aisladas para defender la eficacia de una intervención la encontramos en torno al método Doman. No hay estudios empíricos válidos sobre su eficacia pero sí múltiples testimonios de usuarios particulares, normalmente familias, que defienden el “a mí me funciona” y que son presentadas por los promotores del método como pruebas irrefutables de su éxito.

6. Ausencia de conexión

La conexión se refiere a si un conjunto de afirmaciones están edificadas sobre o conectadas con afirmaciones o hallazgos previos válidos. Las pseudociencias a menudo carecen de esta conexión. Un ejemplo de ello es la idea de que las diferencias en el hemisferio dominante (cerebro izquierdo, cerebro derecho) pueden ayudar a explicar las diferencias individuales entre estudiantes. Los defensores de esta idea ignoran la gran cantidad de investigación que muestra que los dos hemisferios cerebrales siempre trabajan juntos así como que ambos hemisferios son mucho más similares que diferentes a la hora de procesar la información.

7. Afirmaciones extraordinarias

Las afirmaciones extraordinarias requieren de hechos extraordinarios. Sin embargo, muchas pseudociencias no cumplen esta premisa. Un ejemplo de ello lo encontramos en los llamados niños índigo, de los que los creadores del método Asiri (que ha aterrizado en nuestro país) hacen bandera. Según ellos, estos niños irían más allá en la evolución humana desde el punto de vista espiritual y mental. Sin embargo, no aportan ninguna prueba que demuestre esta sorprendente afirmación.

8. Falacia ad antequitem

Consiste en apelar a la antigüedad, al “se ha hecho siempre”, para defender la validez de una práctica concreta. Esto sucede en muchas escuelas de educación infantil de nuestro país que llevan décadas empleando el método Doman y el método patterning (del mismo autor) en las aulas. Otro ejemplo claro es el uso de ciertas pruebas proyectivas, como el dibujo de la figura humana, en el ámbito de la psicología escolar a pesar de la falta de pruebas sobre su validez.

9. Uso de un lenguaje hipertécnico

Dentro de la comunidad científica, con frecuencia es preciso introducir nuevos términos para describir un hallazgo reciente. Sin embargo, desde el campo de las pseudociencias, se hace un abuso de la jerga técnica para dotar de mayor credibilidad a sus afirmaciones. Por ejemplo, los partidarios de las terapias auditivas, como el método Tomatis o Berard, recurren a menudo a un lenguaje hipertécnico, con expresiones como “hipersensibilidad al sonido” o “interferencia con un procesamiento eficiente de las señales sonoras” a la hora de describir los problemas que supuestamente remedian.

10. Ausencia de condiciones límite

En contra de lo que hacen los científicos, los defensores de prácticas pseudocientíficas no definen los límites de las prácticas que defienden. Esto es, no especifican en qué casos es o no eficaz una intervención. De hecho, defienden su uso para un abanico excesivamente amplio de condiciones. Este es el caso por ejemplo del método Irlen, cuyos promotores defienden su utilidad para innumerables problemáticas tanto físicas (por ejemplo, confort y sensibilidad a la luz) como psicológicas (por ejemplo, atención y concentración).

Nota: Aunque para cada alerta se han aportado uno o dos ejemplos concretos, prácticamente todos ellos podría utilizarse para ejemplificar muchas de las diez alertas.

Referencias:

Busso, D. S., & Pollack, C. (2014). No brain left behind: Consequences of neuroscience discourse for education. Learning, Media and Technology, 1-19. doi:10.1080/17439884.2014.908908

Carnine, D. (2000). Why education experts resist effective practices (and what it would take to make education more like medicine). Recuperado de http://www.wrightslaw.com/info/teach.profession.carnine.pdf

Carrier, N. (2017). How educational ideas catch on: The promotion of popular education innovations and the role of evidence. Educational Research, 59, 228-240.

Carrier, N. (2015). What catches on? The role of evidence in the promotion and evaluation of educational innovations (tesis doctoral). Universidad de Toronto, Ontario, Canadá.

Cunningham, A. E., Perry, K. E., Stanovich, K. E., & Stanovich, P. J. (2004). Disciplinary knowledge of k-3 teachers and their knowledge calibration in the domain of early literacy. Annals of Dyslexia, 54,139-167.

Dekker, S., Lee, N. C., Howard-Jones, P., & Jolles, J. (2012). Neuromyths in education: Prevalence and predictors of misconceptions among teachers. Frontiers in Psychology, 3, 429.

Echegaray-Bengoa, J., & Soriano-Ferrer, M. (2016). Conocimientos de los maestros acerca de la dislexia del desarrollo: Implicaciones educativas. Aula Abierta, 44, 63-69.

Ferrero, M. ¿Qué saben los estudiantes de educación sobre métodos de investigación? Un estudio de los programas docentes españoles (en preparación).

Ferrero, M., Garaizar, P., & Vadillo, M. A. (2016). Neuromyths in education: Prevalence among Spanish teachers and an exploration of cross-cultural variation. Frontiers in Human Neuroscience, 10, 496.

Fuentes, A., & Riso, A. (2015). Evaluación de conocimientos y actitudes sobre neuromitos en futuros/as maestros/as. Revista de Estudios de Investigación en Psicología y Educación, 6, 193-198.

Goldacre, B. (2006). Brain Gym – Name & Shame [Blog post]. Recuperado de http://www.badscience.net/2006/03/the-brain-drain/

Hodge, E. E. (2005). A best-evidence synthesis of the relationship of multiple intelligence instructional approaches and student achievement indicators in secondary school classrooms (tesis doctoral). Universidad Cedarville , Ohio, Estados Unidos.

Hyatt, K. J. (2007). Brain Gym®: Building stronger brains or wishful thinking? Remedial and Special Education, 28, 117-124.

Landrum, T. J., Cook, B. G., Tankersley, M., & Fitzgerald, S. (2002). Teacher perceptions of the trustworthiness, usability, and accessibility of information from different sources. Remedial and Special Education, 23, 42-48.

Lilienfeld, S. O., Ammirati, R., and David, M. (2012). Distinguishing science from pseudoscience in school psychology: science and scientific thinking as safeguards against human error. Journal of School Psychology, 50, 7-36.

Tardif, E., Doudin, P-A., & Meylan, N. (2015). Neuromyths among teachers and student teachers. Mind, Brain and Education, 9, 50-59.

Slavin, R. E. (1989). PET and the pendulum: Faddism in education and how to stop it. Phi Delta Kappan, 752–758

Stahl, S. A. (1999). Why innovations come and go (and mostly go): The case of whole language. Educational Researcher, 28, 13-22.

Washburn, E. K., Mulcahy, C.A., Musante, G., Joshi, R. M. (2017). Novice teachers’ knowledge of reading-related disabilities and dyslexia. Learning Disabilities: A Contemporary Journal, 15, 169-191.

Sobre la autora: Marta Ferrero es psicopedagoga y doctora en psicología. Actualmente es investigadora posdoctoral en el Deusto Learning Lab de la Universidad de Deusto. Es autora del blog Si tú supieras…

El artículo El ir y venir de las modas educativas se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La evaluación mejora el aprendizaje
  2. Tres historias italianas: vacunas, homeopatía, niños y derechos humanos
  3. La curva de la atención, ¿una leyenda urbana?
Catégories: Zientzia

El ácido hialurónico no sirve para todo, aunque lo parezca

Cuaderno de Cultura Científica - jeu, 2018/05/17 - 11:59

Desde hace unos años el ácido hialurónico está por todas partes, es la molécula estrella. Lo encontramos en cremas hidratantes y antiedad, lo usamos en tratamientos estéticos, en tratamientos de artrosis, en suplementos alimenticios para deportistas y para combatir las arrugas. Cuando algo sirve para tantas cosas, en apariencia tan diferentes entre sí, saltan las alarmas. ¿El ácido hialurónico es tan versátil y efectivo como lo pintan?

  • El origen del ácido hialurónico

Los farmacéuticos Karl Meyer y John Palmer aislaron por primera vez el ácido hialurónico en 1934 mientras estudiaban la composición del humor vítreo de los ojos de las vacas. Resultó que esta sustancia de aspecto tan viscoso —es un polisacárido del tipo de glucosaminoglucanos— tenía una función estructural, es decir, es la responsable de mantener la forma del ojo.

Estos farmacéuticos decidieron llamarlo ácido hialurónico porque hialos proviene del griego υαλώδη, que significa vítreo, y urónico por la alta concentración de ácido urónico que contiene (producto de la oxidación de los monosacáridos).

En 1942 empezó a utilizarse el ácido hialurónico con fines comerciales como sucedáneo del aglutinante de clara de huevo usado en pastelería. A partir de entonces comenzó a extraerse de la cresta de algunas aves, ya que lo contienen en gran cantidad. Aunque hoy conocemos métodos de obtención más eficientes que ese, la cresta de las aves se continúa utilizando como fuente. En los años setenta se descubrieron nuevas aplicaciones relacionadas con la cirugía ocular. Empezamos a probarlo con infiltraciones para el tratamiento de patologías articulares y, poco después, se descubrieron aplicaciones cosméticas.

  • Hialurónico para las articulaciones

El ácido hialurónico forma parte del líquido sinovial que lubrica las articulaciones. Algunos mamíferos contienen más que otros. Una persona de 70 kg alberga en su cuerpo unos 15 g de hialurónico. Aproximadamente un tercio se degrada y se recupera parcialmente a lo largo del día. Con la edad, la destrucción del hialurónico es más rápida que su recuperación.

Una de las aplicaciones médicas del ácido hialurónico se hace por medio de infiltraciones en las cápsulas sinoviales —los cojinetes de las articulaciones—. Estas infiltraciones favorecen la lubricación de la articulación y reducen el desgaste del cartílago, lo que minimiza el dolor derivado de la artrosis y otras patologías de sintomatología similar.

Esta molécula es viscosa y de baja densidad. Sus propiedades derivan de su estructura química. El ácido hialurónico es un polisacárido. Esto quiere decir que está formado por la unión de moléculas de azúcar pequeñas formando cadenas. Estas cadenas experimentan cierta repulsión eléctrica unas de otras. El resultado de esto es que pocas moléculas ocupan mucho volumen, por eso tiene baja densidad, y en lugar de apelmazarse al ser sometidas a presión, unas moléculas se deslizan sobre las otras.

Además, el ácido hialurónico es biodegradable. Esto es a la vez una ventaja y una desventaja. Por un lado, es un compuesto que encontramos de forma natural en nuestro cuerpo, por lo que es improbable que dé problemas de incompatibilidad o rechazo. Por otro lado, se va degradando, así que hay que repetir las infiltraciones cada cierto tiempo.

  • Hialurónico en inyecciones estéticas

El ácido hialurónico forma parte de la estructura de la piel. Es la sustancia que mantiene el colágeno en su sitio, por lo que además de una función estructural, desempeña un papel importante en la estética de nuestra piel. La mantiene tersa y rellena.

Con la edad se ralentiza la síntesis natural de hialurónico, mientras que su destrucción sigue un ritmo constante. Esa es una de las razones por las que aparecen arrugas y la piel pierde volumen.

Las inyecciones de hialurónico se hacen bajo la dermis y se dirigen hacia los surcos de las arrugas. El efecto de relleno es inmediato.

Para evitar problemas de alergia, rechazo u otras reacciones autoinmunes, el hialurónico empleado tiene que ser muy puro, sin rastro de proteína animal. Por este motivo se utiliza hialurónico biosintético. Éste se produce a partir de la fermentación bacteriana de ciertos vegetales.

  • Cremas hidratantes y antiedad con ácido hialurónico

Una de las cualidades del ácido hialurónico es que es muy higroscópico. Esto significa que es capaz de retener una gran cantidad de agua —miles de veces su peso—. Esta propiedad se utiliza como activo de hidratación en los productos cosméticos.

Uno de los factores que más afectan al aspecto, salubridad y envejecimiento de nuestra piel es la hidratación. La piel tiende a perder agua de forma natural. Lo que hacen los activos hidratantes es evitar la excesiva pérdida de agua. Algunas de estas sustancias pueden ser simplemente oclusivos (taponan la piel), otras como el hialurónico son humectantes, actúan como una capa de agua que previene la deshidratación de la piel.

La hidratación superficial nos la proporciona cualquier tipo de hialurónico. Sin embargo, dependiendo de su peso molecular, el ácido hialurónico tiene una actividad diferente. El peso molecular también afecta al precio de la materia prima y, por tanto, al precio del cosmético.

El hialurónico de alto peso molecular suele ser de procedencia animal. Al ser una molécula tan grande, no tiene capacidad de penetración en la piel. Permanece en la superficie y actúa como un potente hidratante.

El hialurónico de bajo peso molecular suele ser de origen sintético. Producirlo es más costoso, por eso lo encontramos en productos cosméticos de gama media-alta. En la lista de ingredientes se denomina hialurónico «fragmentado» o «hidrolizado». Éste sí tiene capacidad de penetración. Es capaz de llegar hasta la dermis, por lo que tiene una función rellenadora que atenúa las arrugas. Además, se ha comprobado experimentalmente que promueve la síntesis de hialurónico natural de la piel.

El peso molecular del hialurónico que encontramos en los cosméticos es muy diverso, y eso hace que unos productos sean mejores que otros y más adecuados a cada piel. La unidad de medida que se emplea en el sector cosmético es el KDa (kilodalton). El hialurónico de 320 KDa o más no garantiza el efecto relleno, pero sí la hidratación. El hialurónico de 20 kDa o menos tiene tal capacidad de penetración que puede resultar irritante para algunas personas. Por ese motivo existen productos que combinan el hialurónico de alto peso con el de bajo peso. Para evitar posibles irritaciones, en los productos formulados para pieles sensibles se utiliza hialurónico de bajo peso de 50 kDa.

  • Suplementos alimenticios con ácido hialurónico

Los suplementos alimenticios con ácido hialurónico se publicitan tanto para personas con artrosis, como para deportistas, como para combatir el envejecimiento de la piel.

El dicho popular «de lo que se come se cría» no hay que tomárselo al pie de la letra. De la misma manera que comer sesos no hace que te crezca el cerebro, comer hialurónico no hace que tu piel o tus articulaciones ganen hialurónico. Todo lo que ingerimos se metaboliza, se transforma en otras moléculas más simples y éstas se distribuyen en nuestro organismo. Cuando consumimos hialurónico, éste se fragmenta en azúcares simples y lo metabolizamos como cualquier otro polisacárido. Es decir, no viaja como azúcares libres a nuestra piel y se vuelve a recomponer allí como hialurónico. El metabolismo es algo mucho más complejo que eso. Esa es la razón por la que no sirve para nada consumir suplementos con ácido hialurónico.

Habitualmente estos suplementos además contienen colágeno, por aquello de la relación estructural que mantiene el hialurónico con el colágeno. Ni el colágeno ni el hialurónico favorecen la síntesis de más hialurónico ni más colágeno. Para poder publicitar que sí lo hacen, estos suplementos suelen contener vitamina C, que sí ha sido aprobada por las autoridades. Incluir una cantidad ridícula de vitaminas y minerales con declaraciones saludables verificadas es una de las tretas permitida y fomentada por las autoridades.

No todos los suplementos son iguales. Algunos contienen diferentes principios activos que conjuntamente promueven la síntesis natural de hialurónico y frenan su destrucción. Desgraciadamente las autoridades no evalúan los alimentos ni los suplementos en su conjunto, sino como ingredientes individuales. Esa es la razón por la que tanto buenos y malos incluyen vitamina C en su composición, para que sea legal publicitarlos como beneficiosos para la piel y las articulaciones.

  • Conclusión

El ácido hialurónico es una molécula estrella. Es versátil y eficaz, pero no para absolutamente todo.

Inyectado en las articulaciones sí es capaz de minimizar el dolor, de conservar el cartílago y aumentar la lubricación. Inyectado bajo la epidermis, sí rellena las arrugas y fomenta la síntesis del hialurónico propio de la piel. Al ser biodegradable hay que inyectarlo periódicamente.

Por vía tópica también cumple varias funciones cosméticas. El hialurónico de alto peso molecular hidrata la piel, y el de bajo peso molecular tiene capacidad de penetración. No es tan efectivo e inmediato como las inyecciones, pero funciona como rellenador y activa la síntesis del hialurónico propio de la piel de forma menos invasiva.

Ingerido en suplementos alimenticios o formando parte de alimentos funcionales no aporta ningún beneficio, ya que se metaboliza como cualquier otro polisacárido. Los suplementos que promueven la síntesis de hialurónico o frenan su destrucción tienen otros principios activos, ninguno de ellos será el ácido hialurónico.

Sobre la autora: Déborah García Bello es química y divulgadora científica

El artículo El ácido hialurónico no sirve para todo, aunque lo parezca se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La potencia sin control no sirve de nada
  2. Con los edulcorantes artificiales (casi) todo son ventajas
  3. Aunque tengas colesterol, podrás desayunar huevos
Catégories: Zientzia

MALDI-TOF masa-espektrometria ezagutzen

Zientzia Kaiera - jeu, 2018/05/17 - 09:00
Antonio Veloso Karas eta Hillenkamp eta Tanakaren taldeak, 1980ko hamarkadan garatu zuten Matrix Assisted Laser Desorption Ionization Time of Flight Mass Spectrometry (MALDI/TOF-MS) edo matrizez lagundutako laserraren bidezko desortzio-ionizazioa/hegaldi-denbora masa-espektrometria.

1. irudia: Proteinak, peptidoak, lipidoak eta farmakoak identifikatzeko edo polimeroak karakterizatzeko erabiltzen da MALDI-TOF teknika.

Teknika hau hainbat arlotan erabili da, hain zuzen ere proteinak, peptidoak, lipidoak eta farmakoak identifikatzeko edo polimeroak karakterizatzeko. Beste teknika analitiko batzuekin alderatuz, masa-espektrometriak informazio gehigarria ematen du, analito osoaren eta bere zatien masa molekularrak, esate baterako. Gainera, analisia egiteko laginaren oso kantitate txikia kontsumitzen da (mikrolitroak), denbora laburrean, eta lortzen diren masa molekularrak molekulen egiturarekiko independenteak dira.

Lan honetan, teknika honen oinarriak eta aplikazioak azaltzen eta aztertzen dira. Lehendabizi, ionizazioaren prozesua azalduko da eta ondoren, laginaren prestakuntza. Gero, masa-espektrometroaren atal guztien zereginak ikusiko dira (analizagailuak eta detektagailuak), eta ostean erakusten da zertan datzan Imaging Mass Spectrometry (IMS) edo masa-espektrometriaren bidezko irudia izeneko teknika.

Laburbilduz, teknika honetan, lagina matrizearekin nahasten da etaespektrometroko laserrak laginean dauden osagai guztiak ionizatu egiten ditu. Ondoren, ioien masak analizagailuan banatzen dira eta azkenik, ioiak detektagailura iristen dira eta espektro bat lortzen da. Laginean dagoen konposatu bakoitza, espektroan gailur bezala ikusiko da.

MALDI teknikan, urrats garrantzitsua da aztergai dugun laginetik ioiak sortzea. Orokorrean, laserraren irradiazioa analito molekulen desortzioa eta/edo ionizazioa eragiteko erabiltzen da; matrizea, aldiz, energia absortziorako bitartekari gisa erabiltzen da (1. irudia). Matrizearen aukera erabakigarria da MALDI MS analisirako. Matrize ezberdin asko eta haiek prestatzeko teknika ugari azaltzen dira bibliografian. Oinarri orokorren arabera, arau batzuk eman ahal dira matrizearen aukera egokia, eta horrela, lana sinplifikatzeko. Analitoaren azidotasun edo basikotasunari begiratuz, protoiarekiko afinitate edo gas fasearen basikotasun egokia duten matrizeak aukeratu daitezke.

2. irudia: MALDI ionizazio prozesuaren oinarri eskematikoa ionizatzeko modu positiboan.

Bestalde, egun, autorradiografia teknika erabili behar da ehun batean lipidoek edo farmakoek duten banaketa ezagutzeko, hau da, arriskutsuak diren isotopo erradioaktiboak erabili behar dira. MALDI Imaging Mass Spectrometry (IMS) edo masa-espektrometriaren bidezko irudiak izeneko teknikari esker, inolako isotopo erradioaktiborik erabili gabe lor daitezke irudiak. Teknika hau, beraz, oso garbia da. IMS teknika, teknika bikaina da ehun biologikoetan dauden molekulen banaketa aztertzeko. Izan ere, molekula mota ezberdinen identifikazioa eta kokapena ahalbidetzen du, konposatuaren edota familia kimikoaren aukera egin aurretik. MALDI IMS egiteko lehendabizi, matrizez estali behar da analizatu nahi den azalera. Matrizez ehunak estaltzeko zenbait teknika erabili dira: lainoztatzea sublimazioa, aerografoa, inprimatzailea… Guztiek dute helburu modura matrizez asetutako disoluzio bat erabilita analizatu nahi den azalera homogeneoki estaltzea. Egun, zenbait enpresak matrizez estaltzeko tresnak garatu dituzte.

3. irudian, ikus daitezke MALDI IMS bidez lortutako arratoien bizkarrezur-muineko lipido batzuen distribuzioen irudiak. Goiko aldean, ezkerraldean, ehun horren mikroskopio irudia erakusten da, materia grisa eta zuria ondo bereizita. Ondoko irudiak, IMS teknika erabilita lortu dira. Koloreen eskala alboan adierazten da, hots, kolore bizia dagoen lekuan (gorriz edo berdez), espeziearen gailurra intentsitate handikoa da, eta kolorea iluna bada (beltzez), espezie hori ez da izango inguru horretan. Ikusten den bezala, materia zurian (WM) barreiatuta daude PC34:1 (fosfatidilkolina), edo SMc24:1/d18:1 (esfingomielina) bezalako espezie batzuk. Materia grisean (GM) daude PC32:0 eta PC38:6 fosfatidilkolinak bezalako beste batzuk.

3. irudia: Arratoien bizkarrezur-muineko mikroskopio irudia (goiko aldean, -ezkerraldean) eta MALDI IMS teknika erabilita lortutako lipido espezie batzuen distribuzio-irudiak (gorriz eta berdez). 0etik 1erako lipido gailurren intentsitate-eskala agertzen da (beheko aldean, -ezkerraldean).

  • Aldizkaria: Ekaia
  • Zenbakia: Ekaia 32
  • Artikuluaren izena: MALDI-TOF masa-espektrometria ezagutzen
  • Laburpena: Gaur egun, nahiko informazio ageria ematen dute biomolekulak eta materialak karakterizatzeko erabiltzen diren laborategi-teknika analitikoek, baina azaldu ezin diren efektuak edo emaitzak lortzen dira askotan. Horregatik, informazio hau lortzeko, hau da, molekulen mikroegiturak karakterizatzeko edota gertatu diren kutsadurak ezagutzeko ere, gero eta gehiago hedatzen ari da teknika bat, Matrix Assisted Laser Desorption-Ionization/Time of Flight Mass Spectrometry (MALDI/TOF-MS) izenekoa, edo laserraren bidezko desortzio-ionizazio matrizez lagundua/hegaldi-denbora masa-espektrometria teknika. Masa-espektrometria delako karakterizazio teknika hau hainbat alorretara hedatu da, masa molarra jakitea ahalbidetzen duelako inolako zatiketarik gabe eta, aldi berean, ehun edo material baten banaketaren berri ematen duelako Imaging Mass Spectrometry (IMS) edo masa-espektrometriaren bidezko irudia deritzon teknikari esker. Lan honek helburu hartuko du teknika berri honen oinarriak eta aplikazioak azaltzea eta aztertzea.
  • Egileak: Antonio Veloso
  • Argitaletxea: UPV/EHUko argitalpen zerbitzua
  • ISSN: 0214-9001
  • Orrialdeak: 83-96
  • DOI: 10.1387/ekaia.16965

—————————————————–
Egileez: Antonio Veloso Polymaten eta UPV/EHUn dabil.

————————————————–
Ekaia aldizkariarekin lankidetzan egindako atala.

The post MALDI-TOF masa-espektrometria ezagutzen appeared first on Zientzia Kaiera.

Catégories: Zientzia

Handi izatearen aldekoak (baita txiki izatearenak ere)

Zientzia Kaiera - jeu, 2018/05/17 - 09:00
Juan Ignacio Pérez eta Miren Bego Urrutia Geroari begira

———————————————————————————————————–

Simaurra oso erabilgarria da. Milaka animalia-espezie bizi dira simaurretik. Onthofagus generoko espezieek, esaterako, simaurra jaten dute, eta bi mila espezie baino gehiago ditu talde honek mundu osoan banatuta.

Genero honetako espezieak dira kakalardo pilotagile izenaz ezagunak diren intsektu asko; hala ere, beste generoetako zenbait espeziek ere izen bera hartzen dute. Ingelesez duen izena, dung beetle (bekorotzaren kakalardoa), haren izaeraren adierazle zehatzagoa da seguru asko.

Espezie hauek dimorfismo sexuala dute. Arrek erasorako eta defentsarako erabiltzen duten adar bat daukate, eta espezieen arabera aldatzen da haren kokapen anatomikoa. Emeek, berriz, ez ohi dute adarrik. Arren garapenak bi ibilbide desberdin jarrai ditzake, bizi-zikloaren aldi kritiko batean ⎯larba heldu bihurtzen den unean, hain zuzen ere⎯ gertatzen denaren arabera. Hasteko, une horretan sexu-kromosoma egoteak edo ez egoteak baldintzatzen du heldu horren sexua zein izango den. Gero, ezagunak ez izan arren seguru asko, hormonen menpe dauden zenbait mekanismoren bidez baloratzen ditu ar horrek gertu dituen energia- eta egitura-baliabideak. Baldin eta baliabide horiek atalase jakin baten gainetik badaude, orduan tamaina handikoa izango da arra, eta, espeziearen arabera, adar bat edukiko du. Baina baliabideak atalase horren azpitik badaude, txikia izango da eta ez du adarrik edukiko.

Larbak zaintzea da emearen ardura nagusia. Larbak elikatzeko, satsa erabiltzen du, eta larbak sortu aurretik egin dituen zuloetan sartzen du simaurra. Arrak, bestalde, zuloaren sarrera zaintzen du, beste arrik sar ez dadin: horretarako erabiliko du adarra, beharrezkoa bada. Baina, lehenago esan bezala, ar adardun horiez gain, badira ar adargabe txikiagoak ere. Ar horiek ahulagoak dira, noski, baina baita maltzurragoak ere, hitz hori intsektu bati buruz hitz egiteko egokia bada. Izan ere, ar txikiek emeengana iristeko eta ernaltzeko beste zulo batzuk egiten dituzte. Adarrik gabeak dira, bai, ar txikiak, baina adarra oztopoa izango litzateke isilpeko modu horretan jokatu ahal izateko.

Oso ondo planifikaturiko eta eginiko esperimentuen emaitzetatik atera dira hemen aurkeztu ditugun ondorio horiek. Eboluzio-mekanismoei eta animalien garapen-biologiari buruzko ondorio interesgarriak dira, baina, horrez gain, tamainak eta ongizateak berak zenbaitetan jartzen dituen segadei buruzko irakaspenik ere atera daiteke.

—————————————————–

Egileez: Juan Ignacio Pérez Iglesias (@Uhandrea) eta Miren Bego Urrutia Biologian doktoreak dira eta UPV/EHUko Animalien Fisiologiako irakasleak.

—————————————————–

Artikulua UPV/EHUren ZIO (Zientzia irakurle ororentzat) bildumako Animalien aferak liburutik jaso du.

The post Handi izatearen aldekoak (baita txiki izatearenak ere) appeared first on Zientzia Kaiera.

Catégories: Zientzia

¿Y si la desintegración del neutrón produjese materia oscura?

Cuaderno de Cultura Científica - mer, 2018/05/16 - 17:00

B. Fornal and B. Grinstein/University of California, San Diego

Los neutrones, esas partículas neutras que se encuentran en el núcleo de los átomos, no son partículas elementales, ya que tienen estructura. Si bien son estables cuando están en el núcleo atómico, se desintegran cuando están libres. Un neutron libre tarda en desintegrarse de media unos 881,5 segundos, segundo y medio arriba o abajo, y el hecho de que no se disponga de un valor con una precisión muchísimo mayor se debe a que según cómo se haga el experimento se obtienen unos resultados u otros.

La fuente de la discrepancia entre los dos tipos de experimentos que se realizan podría ser perfectamente algún tipo de error sistemático aún no identificado. Pero otra posibilidad podría ser que los neutrones se desintegrasen en esas partículas invisibles en cualquier parte del espectro electromagnético que llamamos materia oscura, y que permiten que las galaxias existan tal y como las conocemos.

Esta nueva hipótesis, como es lógico, ha despertado mucho interés, y ya se han realizado experimentos intentando comprobarla. Los resultados de éstos no descartan la idea, aunque sí imponen limites a qué variantes de la hipótesis son viables. Veamos.

Fuera del núcleo, el neutrón se descompone en un protón, un electrón y un neutrino electrónico. Los estudios de este proceso de desintegración son de dos tipos, que van podemos llamar de “botella” y de “haz”. En un experimento de botella, los investigadores colocan un conjunto de neutrones ultrafríos en un recipiente (la botella) y cuentan cuántos quedan tras un cierto intervalo de tiempo. En un experimento de haz, los investigadores observan un flujo de neutrones y cuentan la cantidad de protones creados a partir de las desintegraciones. La vida media del neutrón en un experimento de haz puede ser hasta 9 s más larga que la medida en uno de botella.

Bartosz Fornal y Benjamin Grinstein de la Universidad de California en San Diego (EE.UU.), proponen una solución a esta discrepancia que asume que los neutrones se desintegran un 1% de las veces en partículas de materia oscura. Debido a que los experimentos de haz no detectarían estas desintegraciones, eso explicaría que estos experimentos midan una vida media de los neutrones mayor que en los de botella, que darían valores más próximos al valor correcto.

Desintegración del neutrón dando lugar a un rayo gamma

Fornal y Grinstein investigaron varias posibilidades con neutrones que se desintegran dando diferentes combinaciones de materia oscura y partículas visibles. En uno de estos escenarios, las desintegraciones “oscuras” de neutrones van acompañadas de la emisión de un rayo gamma. Inspirado por esta posibilidad, Christopher Morris del Laboratorio Nacional de Los Alamos, Nuevo México (EE.UU.), y sus colegas controlaron la posible emisión de rayos gamma en una botella de neutrones ultrafríos. No encontraron ninguna señal, lo que parece descartar este canal de desintegración propuesto en el rango de energía de fotones de entre 782 y 1664 keV.

Desintegración del neutrón sin que se produzca un rayo gamma

Pero otros posibilidades de desintegración, que producen rayos gammas de energía más baja o que no producen este tipo de radiación, siguen siendo posibles y podrían probarse buscando anomalías en las desintegraciones nucleares.

Referencia:

Bartosz Fornal & Benjamín Grinstein (2018) Dark Matter Interpretation of the Neutron Decay Anomaly Physical Review Letters doi: 10.1103/PhysRevLett.120.191801

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Este texto es una colaboración del Cuaderno de Cultura Científica con Next

El artículo ¿Y si la desintegración del neutrón produjese materia oscura? se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Los supermateriales aumentan la sensibilidad 10.000 veces en los detectores de materia oscura
  2. Un neutrino estéril como candidato a materia oscura
  3. ¿Y si lo que detectó LIGO fue materia oscura?
Catégories: Zientzia

Quipu y yupana, instrumentos matemáticos incas (I)

Cuaderno de Cultura Científica - mer, 2018/05/16 - 11:59

Una de mis pasiones, en relación con la historia de las matemáticas, es la lectura sobre los diferentes sistemas de numeración, las distintas aritméticas y, en general, las matemáticas que han desarrollado los diferentes pueblos, las diferentes culturas, de todo el planeta, a lo largo de la historia de la humanidad.

Por una parte, cada pueblo ha desarrollado unas matemáticas muy particulares, relacionadas con su propia identidad, con su forma de vida, con el lugar y el tiempo en el que se han existido, con sus circunstancias concretas, lo que hace que estas matemáticas tengan sus propias características, diferentes de las de los demás pueblos. Sin embargo, al mismo tiempo podemos observar cómo existe una parte esencial de dichas matemáticas que es muy similar en todas las culturas, como si de alguna forma cada una inventara su propio descubrimiento de unas matemáticas ya existentes.

Tabla babilónica de multiplicar del 9, en base 60, encontrada en Nippur, del periodo 1400-1100 a.C. Colección Hilprecht, Universidad de Jena, Alemania

Las siguientes entradas de la sección Matemoción del Cuaderno de Cultura Científica me gustaría dedicarlas a conocer un poco sobre las matemáticas de los incas, y más concretamente, sobre su sistema de numeración y su aritmética.

El imperio inca –llamado Tawantinsuyu, “las cuatro regiones” en la lengua Quechua– se fundó aproximadamente hacia el año 1200 d.C. y estaba en su máximo apogeo cuando los conquistadores españoles, dirigidos por Francisco Pizarro (1478-1541), iniciaron la conquista de Perú, que acabaría con la anexión del imperio Inca a España. En ese momento, el imperio Inca se extendía de norte a sur de la zona del Pacífico de América del Sur, desde las actuales Argentina y Chile hasta Bolivia, Ecuador y Perú, alcanzando una extensión de unos 2.000.000 de kilómetros cuadrados.

Los conocimientos que hoy en día tenemos de la cultura incaica, y en particular, los de carácter científico y técnico, nos han llegado a través de las diferentes crónicas que se escribieron en la época por parte de cronistas “españoles” (algunos indígenas al servicio del imperio español), como Felipe Guamán Poma de Ayala (1534-1615), Gómez Suárez de Figueroa, apodado como Inca Garcilaso de la Vega (1539-1616), Pedro Cieza de León (1520-1554) o Martín de Murúa (1525/1540-1616/17).

Portada de la obra “Nueva corónica i buen gobierno” (1615), de Felipe Guamán Poma de Ayala

Pero centrémonos en las matemáticas del pueblo inca. Su sistema de numeración era, como para muchos otros pueblos que utilizaron sus manos para empezar a desarrollar el concepto de número y su aritmética, decimal. Además, era un sistema posicional, como nuestro sistema de numeración indo-arábigo, con la característica especial de que los números se representaban, como veremos, por medio de cuerdas, de los quipus.

Quipu inca del Museo Larco, de Lima (Perú), sobre el 1400 d.C. Fotografía: Claus Ableiter / Wikimedia Commons

El sistema decimal no solamente se utilizó para representar los números, sino que se utilizó como parte de la organización social del imperio. En la base de la estructura social estaban los puric, que eran los indios trabajadores, que además eran los que tributaban (campesinos, ganaderos, artesanos y soldados). Los purics se organizaban en grupos de diez (10), una cancha, que estaban bajo el mando de un cancha-camayo. A su vez, cada diez cancha-camayos, eran supervisados por un capataz, o pachaca-curaca, que tenía bajo su mando, a través de los 10 cancha-camayos, a 100 trabajadores, una pachaca.

Subiendo un poco más en la pirámide estaban los supervisores, guaranca-curacas, de una decena (10) de pachaca-curacas, una centena (100) de cancha-camayos y un millar (1.000) de indios tributarios, lo que se conocía como una waranqa. Y seguía la jerarquía, cada responsable con el control de diez personas de un rango inferior al suyo, con el huno-curaca o jefe de la tribu, con un total de 10.000 purics, lo que se conocía como un huno, a su cargo.

Por encima del huno-huraca estaba el gobernador de la provincia y más arriba el mandatario de cada uno de los cuatro cuarteles en los que se dividía el imperio. Y arriba de la gran pirámide estaba el Inca, el soberano del imperio inca.

Por ejemplo, en el texto Historia Natural y Moral de las Indias, del jesuita José de Acosta (1540-1600), podemos leer el siguiente párrafo:

“…es de saber que, la distribución que hacían los Incas de sus vasallos era tan particular, que con facilidad los podían gobernar a todos, siendo un reino de mil leguas de distrito, porque en conquistando cada provincia, luego reducían los indios a pueblos y comunidad, y contábanlos por parcialidades, y a cada diez indios ponían uno que tuviese cuenta con ellos, y a cada ciento, otro, y a cada mil, otro, y a cada diez mil, otro, y a éste llamaban Huno [huno-curaca], que era cargo principal; y sobre todos éstos en cada provincia un gobernador del linaje de los Incas, al cual obedecían todos, y daba cuenta cada un año de todo lo sucedido por menudo; es, a saber, de los que habían nacido, de los que habían muerto, de los ganados, de las sementeras.

Dibujos de Cinchiroca, segundo Inca del imperio, y de su mujer Chympo Coya, del libro “Historia General del Perú. Origen y descendencia de los incas” (1616), del fraile vasco Martín de Murúa. Digital image courtesy of the Getty’s Open Content Program

Efectivamente, el sistema de numeración de los incas era decimal, como lo confirma, por ejemplo, el cronista Felipe Guamán Poma de Ayala en su texto Nueva corónica i buen gobierno (1615), al referirse a los quipu-camayos, los funcionarios de imperio que manejaban los quipus, dice así:

“…numeran de cien mil y de diez mil [y de mil] y de ciento y de diez hasta llegar a uno.

Y también explica cuáles son las palabras utilizadas en la lengua Quechua para designar a los números:

Suc [uno], yscay [dos], quinza [tres], taua [cuatro], pichica [5], zocta [6], canchis [7], puzac [8], yscon [9], chunga [10], yscay chunga [20], quinza chunga [30], taua chonga [40], pisca chunga [50], zocta chunga [60], canchis chunga [70], pozac chunga [80], yscon chunga [90], pachaca [100], uaranga [1000].

Chunga uaranga [10000][es un]huno, pachaca huno [100 x 10000], uaranranga [sic] huno [1000 x 10000], pantacac huno [incontable]

Los incas utilizaban un dispositivo con cuerdas, el quipu (palabra que en Quechua significa “nudo”), para representar los números. Pero el quipu era más que un sistema de escritura numérica, era un instrumento para registrar información, como datos estadísticos relacionados con los datos de censo, la contabilidad tributaria, registros económicos y de producción, e informaciones numéricas similares relacionadas con el imperio Inca y su gobierno, que permitía conservar de forma duradera dichas informaciones numéricas.

Quipu del Museo Chileno de Arte Precolombino, como nos cuenta Marta Macho en su entrada El quipu: ¿algo más que un registro numérico?, “contiene 586 cuerdas organizadas en 8 sectores de 10 conjuntos de cuerdas, cada uno con hasta 13 niveles de información; almacena 15.024 datos cuyo significado se desconoce”. Fotografía de Inés Macho

Los Quipus podrían registrar también otro tipo de informaciones, como información histórica, poemas y canciones, genealogías, temporales, o incluso funcionar como calendario. Como podemos leer en el mencionado texto de José de Acosta:

Fuera de esta diligencia, suplían la falta de escritura y letras, parte con pinturas, como los de Méjico, aunque las del Perú eran muy groseras y toscas; parte, y lo más, con quipos. Son quipos unos memoriales o registros hechos de ramales, en que diversos nudos y diversos colores significan diversas cosas. Es increíble lo que en este modo alcanzaron, porque cuanto los libros pueden decir de historias, y leyes, y ceremonias y cuentas de negocios, todo eso suplen los quipos tan puntualmente, que admiran. Había para tener estos quipos o memoriales oficiales diputados, que se llaman hoy día Quipocamayo, los cuales eran obligados a dar cuenta de cada cosa, como los escribanos públicos acá, y así se les había de dar entero crédito; porque para diversos géneros, como de guerra, de gobierno, de tributos, de ceremonias, de tierras, había diversos quipos o ramales; y en cada manojo de estos nudos y nudicos y hilillos atados, unos colorados, otros verdes, otros azules, otros blancos, y finalmente tantas diferencias, que así como nosotros de veinte y cuatro letras, guisándolas en diferentes maneras, sacamos tanta infinidad de vocablos, así éstos de sus ñudos y colores sacaban innumerables significaciones de cosas.

Y como dice el texto de José de Acosta, los funcionarios del imperio encargados de manejar los quipus eran los quipucamayos, que tenían como trabajo construir los quipus, registrar las informaciones e informar de las mismas (es decir, interpretar los quipus) a los gobernantes. Había distintos quipucamayos que se dedicaban a recoger diferentes tipos de informaciones.

Dibujo de un quipucamayo, de hecho, el “contador mayor y tesorero” que informaba directamente al Inca, del libro “Nueva corónica i buen gobierno” (1615), de Felipe Guamán Poma de Ayala, que aparece con los dos instrumentos matemáticos incas, el quipu y la yupana, o ábaco inca

Cada aldea, provincia, región tenía sus propios quipucamayos. Loa gobernantes utilizaban estas informaciones para el gobierno de aldeas, provincias, regiones o todo el imperio inca. Como escribe el cronista Poma de Ayala “con los cordeles gobernaban todo el reino”.

Dibujo “los depósitos del inca”, del libro “Nueva corónica i buen gobierno” (1615), de Felipe Guamán Poma de Ayala, en el que se ve al administrador de los depósitos del inca, con un quipu en las manos, haciendo inventario del contenido de los depósitos ante el décimo Inca Topa Ynga Yupanqui

Los quipus eran cuerdas, normalmente fabricadas con algodón o fibra de camélido (obtenida de las llamas y alpacas), que solían constar de una cuerda principal, que era la columna vertebral del quipu, del que colgaban, anudadas a la cuerda principal, una serie de cuerdas colgantes sobre los que se realizaban los nudos que representaban los números. De estas cuerdas colgantes podían a su vez colgar otras cuerdas colgantes secundarias o incluso podían existir cuerdas superiores.

¿Cómo se representaba un número, mediante nudos, en cada uno de las cuerdas colgantes? Existían tres tipos de nudos, los nudos simples, los nudos largos y los nudos en forma de ocho.

Ejemplos de un nudo simple, un nudo largo (triple) y un nudo en forma de 8

Imagen con una secuencia de nudos que se inicia con dos nudos simples, realizados en las dos direcciones, que representan a 1 y nudos largos de dos a nueve giros, que representan a las cifras del 2 al 9, del artículo “Q’eros: a Study in Survival” –Natural History Magazine 1957–, de John Cohen

El nudo con forma de 8 representa al 1, pero solamente en la que va a ser la zona o posición de las unidades, los nudos largos representan los números del 2 al 9, en la zona de las unidades, y cada uno de los nudos simples representa una unidad en las posiciones de las decenas, centenas, millares, etcétera, de forma que si queremos representar cualquier cifra del 1 al 9 en una de estas zonas se hacen tantos nudos simples como indique la cifra, por ejemplo, 5 nudos para la cifra 5.

En la cuerda colgante en la que queremos representar nuestro número se marcan zonas numéricas equidistantes en función de las necesidades. La zona de las unidades sería la zona más alejada de la cuerda principal, la siguiente zona, hacia la cuerda principal, serían las decenas, la siguiente las centenas y así hasta la cantidad de zonas que se necesiten para representar nuestro número.

En el siguiente ejemplo de cuerda colgante de un quipu que he simulado, el número representado es el 123, ya que, en la zona más baja, por lo tanto la de las unidades, hay un nudo largo triple, luego nos marca un 3 en las unidades, en la siguiente zona, la de las decenas, tenemos dos nudos simples, luego nos marca un 2 × 10 = 20, y en la zona más cercana a la cuerda principal, la de las centenas en este caso, hay un nudo simple, luego marca un 1 × 100 = 100, y el número representado es el 3 + 20 + 100 = 123.

Representación del número 123 en un quipu simulado, con un nudo largo triple en las unidades, dos nudos simples en las decenas y un nudo simple en las centenas

No existía una cifra específica para el cero, pero los incas sí eran capaces de utilizar el vacío en la cuerda para representar que en esa posición no había ningún valor, es decir, se correspondía con el valor cero. Lo cual es esencial para cualquier sistema posicional, como pueda ser este o el indo-arábigo. En el siguiente ejemplo hemos representado el número 1.201, ya que en la zona de las unidades hay un nudo de 8, luego toma el valor 1, en la zona de las decenas no hay nudo, por lo tanto, el valor cero, en la zona de las centenas hay dos nudos simples, luego toma el valor 2 × 100 = 200, y en la zona de los millares hay un nudo simple, esto es, 1 × 1.000 = 1.000, luego el número representado en este quipu simulado es el 1 + 200 + 1.000, es decir, el número representado por 1.201 en nuestro sistema de numeración indo-arábigo.

El hueco vacío en la zona de las decenas indica que no hay decenas, y el número representado es el 1 + 200 + 1.000 = 1.201

En algunos quipus no solo se utilizan los nudos largos en la posición de las unidades, sino también para las demás posiciones, decenas, centenas, millares, etcétera. Por ejemplo, el número representado en el siguiente dibujo de un quipu, del magnífico libro de Georges Ifrah Historia universal de las cifras, es el 3.643, puesto que hay un nudo largo triple en las unidades (3), un nudo largo cuádruple en las decenas (40), un nudo largo séxtuple en las centenas (600) y un nudo largo triple en los millares (3.000).

Representación en una cuerda colgante de un quipu del número 3.643

Un grupo de cuerdas colgantes podía estar unido para representar una serie de cantidades (con el valor que tuviesen estas, número de personas, cabezas de ganado, etcétera) y su suma, como en la imagen siguiente. Las cuerdas A, B, C y D representan los valores, 38, 273, 258 y 89, respectivamente, y la cuerda colgante E, que engancha a las otras, representa la suma de estas cantidades 658 = 38 + 273 + 258 + 89.

Haz de cuerdas colgantes que recogen una serie de cantidades y su suma, 658 = 38 + 273 + 258 + 89. Del libro “Historia Universal de las Cifras”

Comenta Georges Ifrah que en el siglo XIX los pastores de las altiplanicies peruanas todavía registraban el número de animales mediante los quipus. Y presenta el siguiente ejemplo. Con cuerdas blancas (derecha en la imagen) se registraba el ganado caprino y ovino, en la primera cuerda las ovejas (254 en el ejemplo), en la segunda los corderos (36), en la tercera las cabras (300), luego los cabritos (40), los carneros (244), etcétera, cuyo total se recogía en la cuerda de enganche (874 cabezas de ganado caprino y ovino). Con las cuerdas verdes registraban el ganado bovino, en la primera cuerda los toros (203), en la segunda vacas lecheras (350), en la tercera vacas estériles (235), etcétera, y en la cuerda de enganche el total (788).

Ejemplo de quipu utilizado por los pastores de las altiplanicies peruanas, en el siglo XIX, para el recuento de ganado caprino y ovino, con cuerdas blancas, y de ganado bovino, con cuerdas verdes. Del libro “Historia Universal de las Cifras”

Como en el ejemplo anterior, de los pastores peruanos, el color de los quipus tenía diferentes significados. Por ejemplo, en el libro Antigüedades peruanas, de M. E. Rivero y J. D. de Tschudi, se explica que, por ejemplo, el rojo significaba un soldado o guerra, el amarillo, oro, el blanco, plata o paz, el verde, trigo o maíz, etcétera.

Incluso hoy en día, los indios de Bolivia y Perú siguen utilizando un sistema para registrar números emparentado con el quipu, cuyo nombre es el chimpu. Cada número está representado en un manojo de cuerdas, los nudos atados sobre una sola cuerda son las unidades, los nudos atados sobre dos cuerdas son las decenas, sobre tres cuerdas las centenas, sobre cuatro los millares, y así hasta la potencia de 10 que se necesite para cada número. En el siguiente ejemplo, que representa el número 5.477, los 7 nudos (o nudo largo de grado 7) que está más abajo, y que están sobre una sola cuerda, representan las unidades, los siguientes 7 nudos, que juntan dos cuerdas, son las decenas, después vienen las centenas, que son 4 nudos atados sobre tres cuerdas y, por último, 5 nudos atados sobre las cuatro cuerdas los millares.

Ejemplo de chimpu, descendiente del quipu, de Bolivia y Perú. Del libro “Historia Universal de las Cifras”

El quipu es un sistema de representación de los números basado en los nudos con cuerdas que utilizaron los incas, sin embargo, no es el único sistema de representación con nudos y cuerdas que ha existido. Han existido otros muchos ejemplos desde la antigüedad, … “pero esa es otra historia y debe ser contada en otra ocasión”.

En mi siguiente entrada de la sección Matemoción hablaré sobre la yupana o ábaco inca.

La poeta y artista visual chilena Cecilia Vicuña trabaja con el concepto de quipu en sus obras. Un ejemplo es la obra “Quipu womb” –quipu matriz-, de 2017

Bibliografía

1.- Georges Ifrah, Historia universal de las cifras, Espasa Calpe, 2002.

2.- George Gheverghese Joseph, La creta del pavo real, Las matemáticas y sus raíces no europeas, Pirámide, 1996.

3.- Felipe Guamán Poma de Ayala, Nueva corónica i buen gobierno, 1615. Versión online en la Biblioteca Real Danesa

4.- Diego Pareja, Instrumentos prehispánicos de cálculo: el quipu y la yupana, revista Integración, Departamento de Matemáticas UIS, vol. 4, n. 1, p. 37-55, 1986.

5.- José de Acosta, Historia natural y moral de las Indias, 1589. Versión online en la Biblioteca Virtual Miguel de Cervantes, 1999.

6.- Martín de Murúa, Historia General del Perú. Origen y descendencia de los incas (1616). Versión online en Getty Publications Virtual Library

7.- Marta Macho, El quipu: ¿algo más que un registro numérico?, Cuaderno de Cultura Científica, 2015

8.- Gary Urton, catálogo de la exposición Quipu, Contar anudando en el Imperio Inka, Museo Chileno de Arte Precolombino y Universidad de Harvard, 2003.

9.- Mariano Eduardo de Rivero y Ustáriz, Juan Diego de Tschudi, Antigüedades peruanas, Viena, 1851.

10.- Página personal de la poeta y artista visual chilena Cecilia Vicuña

Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica

El artículo Quipu y yupana, instrumentos matemáticos incas (I) se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. El quipu: ¿algo más que un registro numérico?
  2. Juegos matemáticos con tabletas de chocolate
  3. Sangakus, pasión por los desafíos matemáticos
Catégories: Zientzia

Ofiziala da honezkero: eguraldi eskasak marmarti egiten gaitu eta eguraldi onak, zoriontsuago

Zientzia Kaiera - mer, 2018/05/16 - 09:00
Juanma Gallego Sare sozialetan zabaldutako milioika mezu aztertuta, ondorio garbia atera dute ikertzaileek: eguraldiak eragina dauka gizakien gogo-aldartean.

Eguraldi ona egiten duenean zoriontsuagoak gara. Euria edo hotza egiten duenean, berriz, kexu mintzatuko gara igogailuan norbaitekin topo egitean. Zentzuduna dirudi, logikak agindutakoa, baina, jakina da: usteak, erdia ustel. Hortaz, gauzak frogatu beharra dago. Plos One aldizkarian argitaratutako ikerketa batean berretsi dute ustea. Eta “berretsi” diogu, ez beste aurreko ikerketa baten emaitzak baieztatu dituztelako, arras zabalduta dagoen sinesmen hori babestu dutelako baizik: eguraldi eskasak gizakiaren gogo-aldartea baldintzatzen du. Eguzkiak eta epeltasunak mezu positiboak zabaltzera garamatzate. Sare sozialetan argitaratutako mezuek, bederen, hori adierazten dute. Baina hotz edo bero gehiegi egiten duenean, edo euri asko dagoenean, mezu negatiboak barra-barra zabaltzen dira sare sozialetan.

1. irudia: Eguraldiak gogo-aldartean duen eraginari buruzko ikerketak aurretik egin badira ere, orain arte lotura hori ez zegoen argi frogatuta. (Argazkia: Osman Rana / Unsplash)

Ameriketako Estatu Batuetako 75 hiri-eremutan Twitter eta Facebook sareetan zabaldutako mezuen analisian oinarritu dute ikerketa: 2009-2016 urteen artean Facebooken argitaratutako 2.400 milioi mezu eta Twitterren zabaldutako 1.100 milioi mezu aztertu dituzte. Ikerketaren arduradunek zaldu dutenez, Facebooken lagina Twitterrena baino handiagoa izan da, uste baitute sare horrek AEBko gizartea hobeto ordezkatzen duela (Internet erabiltzen duten helduen %80 omen dago “F” erraldoian).

Argitalpenen izaera positiboa ala negatiboa ote den bereizteko gai den tresna bat baliatu dute, eta bide horretatik analisi estatistikoan erabiltzeko moduko datuak eskuratzeko aukera izan dute. Analisia hobeto egin ahal izateko, berariaz eguraldiari loturiko mezuak ere kontuan hartu dituzte. Funtsean, mezuetan erabilitako hitz “positiboak” eta “negatiboak” neurtu dituzte, eta, ondoren, toki bakoitzean eguraldiari buruzko datuekin alderatu dituzte.

Eguraldiak sortzen duen eragin hau ez da, gainera, edonolakoa. Hondamendi naturalek sare sozialetan eragiten duten gogo-aldarteen aldaketen parean jarri dute eguraldiaren eragina. 2014ko abuztuan Kalifornian izandako lurrikara eta 2015eko abenduan San Bernardinon (Kalifornia, AEB) izandako tiroketa jarri dituzte adibidetzat.

“Klimak gure burua adierazteko dugun modua mugatzen du”, azaldu du prentsa ohar batean Massachusettseko Teknologia Institutuko Hedabideetako Laborategiko ikertzaile Nick Obradovitx-ek. Tenperatura altuak eta baxuak, prezipitazioak, hezetasun handiagoa edota hodeien handitzea, horrek guztiak gizakiaren sentimenduen adierazpenean eragina duela azaldu du ikertzaileak.

2. irudia: Big dataren alorrean, eguraldiari buruzko datuak oso erraz eskura daitezke, lege arazorik gabe. Etorkizunean, seguruenera, erabili ahal izango diren datuen katalogoa asko handituko da. (Argazkia: Kid Circus / Unsplash)

Ikerketa txostenaren sarreran aipatzen dutenez, hasiera batean hain zentzuzkoa dirudien harreman honen inguruan aurretik egindako ikerketak ez dira ados jarri. Eguraldiaren eta gogo-aldartearen arteko lotura egon zitekeela iradoki dute ikerketa horiek, baina eguraldia eta emozio positibo edo negatiboak lotuta ote zeuden ez zegoen argi. Hots, bi aldagaien arteko korrelazioa ikusten zen, baina jakina da korrelazio hutsak berez ez duela kausalitatea frogatzen. Orain aurkeztu dituzten datu berriak, berriz, nahiko adierazgarriak dira, batez ere azterketarako erabili izan den datu-basea bereziki joria delako.

Ikerketa guztietan ohikoa da emaitzek etorkizunean izan dezaketen ekarpena azpimarratzea, bai ikerketa bera justifikatzeko zein zientziaren balioa gizarteratzeko; eta kasu honetan ere hori egin dute ikertzaileek: eguraldiak izango duen eragina aurreikustea edota hedabideek zein sakelako telefonoetako laguntzaile adimentsuek informazio horren arabera haien mezuak egokitzeko aukera dira aipatu dituzten ideietako batzuk.

Argi dago, baina, aipatutako arrazoi horiek baino harago doala kontua. Ikerketa hau ere datorrenaren adierazgarria da: big dataren erabilerak aukera paregabeak eskainiko ditu aldagaien arteko loturak bilatu eta berresteko. Estatistikan laginak funtsezkoak dira, baina laginek beti lagin izatearen leloa erantsita dute gainean: adierazgarriak izan behar dute laginek. Hain sinplea ez bada ere, zenbat eta lagin hobeagoak, orduan eta estatistika fidagarriagoa aterako da.

Eguraldiaren inguruko datuak lege arazotan sartu behar izan gabe eskura dauden datu ohikoenak dira, eta horregatik erraza da horiek eskuratzea. Baina bizimodua gero eta digitalagoa den honetan (liburuen, hedabideen edota musikaren kontsumoa, erosketak, ibilbideak, web bidezko kontsultak… eta abar luze bat), datu-meatzaritzak ezusteko asko emango ditu, zalantza izpirik gabe. Askok etorkizun iluna iragartzen dute, gizakiari buruz ia guztia dakiten makinen mendeko mundu batean. Baina badira ere edalontzia erdi beteta ikusten dutenak, eta big data baliatuz gizakia lagunduko duten ziber-lagun metaliko berriak irudikatzen dituzte. Terminator hiltzailea edo Interstellar filmean irudikatutako TARS bezalako aliatu fina, hortxe dago erabakia. Seguruenera, bigarrena aukeratzen duten gehienek eguraldi txarrari ere aurpegi ona jartzen jakingo dute.

Erreferentzia bibliografikoa:

Baylis P, Obradovich N, Kryvasheyeu Y, Chen H, Coviello L, Moro E, et al. (2018). Weather impacts expressed sentiment, PLoS ONE 13(4): e0195750. DOI: https://doi.org/10.1371/journal.pone.0195750

———————————————————————————-

Egileaz: Juanma Gallego (@juanmagallego) zientzia kazetaria da.

———————————————————————————-

The post Ofiziala da honezkero: eguraldi eskasak marmarti egiten gaitu eta eguraldi onak, zoriontsuago appeared first on Zientzia Kaiera.

Catégories: Zientzia

Los intercambios de agua y sales en los tetrápodos acuáticos

Cuaderno de Cultura Científica - mar, 2018/05/15 - 17:00

Tetrápodos de agua dulce

Ejemplar macho de “Lithobates clamitans”. Foto: Contrabaroness / Wikimedia Commons

Todos los tetrápodos acuáticos proceden de ancestros terrestres, por lo que originariamente la concentración osmótica de sus fluidos corporales se encontraba entre 300 y 400 mOsm. La vida en los ríos de reptiles, aves y mamíferos no conlleva especiales dificultades desde el punto de vista osmótico, porque al no exponer sus superficies respiratorias al agua dulce y contar con un tegumento muy impermeable, la entrada de agua en el organismo a favor de gradiente de concentración es mínima, y puede compensarse elevando, de ser necesario, la producción de orina. A los efectos, ha de considerarse equivalente a la ingestión de agua que hacemos los tetrápodos terrestres al beber. Por otro lado, dada la gran capacidad de los túbulos renales de los reptiles para reabsorber iones y la flexibilidad de los riñones de aves y mamíferos, la pérdida de iones a través de la orina puede minimizarse y ser compensada fácilmente mediante la ingestión de sales con el alimento.

Las cosas son muy diferentes en los anfibios, ya que tienen una piel de gran permeabilidad, tanto que juega un importante papel en el intercambio de gases respiratorios y también puede permitir incluso la incorporación de agua de suelos húmedos cuando la necesitan. Por ello, en los anfibios se produce un flujo constante de agua hacia el interior. Para empezar, los miembros de este grupo tienen, en general, un medio interno bastante diluido: la concentración osmótica de la sangre de Pelophylax esculentus es, por ejemplo, 237 mOsm. La entrada de agua a favor de gradiente osmótico obliga a los anfibios a expulsar grandes volúmenes de orina. Lithobates clamitans elimina cada día un volumen de orina equivalente a la tercera parte de su masa corporal, y esa fracción llega al 58% en Xenopus laevis. La orina está, además, muy diluida; la de este último, por ejemplo, tiene una concentración de sodio que es diez veces inferior a la de la sangre, lo que indica una fuerte reabsorción de sales en los riñones. Como los demás reguladores hiperosmóticos los anfibios han de incorporar sales de forma extrarrenal, porque de lo contrario no podrían evitar una fuerte dilución del medio interno. Y eso lo hacen transportando activamente iones a través de las branquias cuando son renacuajos, y a través de la piel cuando son adultos.

En el mar

Un ejemplar de “Chelonia midas” en las costas de Hawaii. Foto: Brocken Inaglory / Wikimedia Commons

Los reptiles marinos, incluidas las aves, y los mamíferos marinos son reguladores hiposmóticos. El medio interno de estos tiene una concentración de alrededor de 400 mOsm, o sea, se encuentra en el margen superior de valores propio del conjunto de los tetrápodos. Dado que estos animales, como los de río, también respiran en aire, no exponen sus superficies respiratorias al agua de mar y, además, el tegumento conserva la alta impermeabilización que le permitió minimizar pérdidas de agua en el medio terrestre.

A pesar de ello, los tetrápodos marinos pierden agua por evaporación -a través de las superficies respiratorias- y algo a través de la piel. También tienden a ganar sales, porque el alimento suele tener alta concentración salina, sobre todo cuando se basa en invertebrados y algas marinas. Además, el alimento ingerido suele ir acompañado de cierto volumen de agua.

Los reptiles no son capaces de producir una orina más concentrada que el medio interno. Y en las aves lo más normal es que la orina sea levemente hiperosmótica con respecto al plasma sanguíneo. Por esa razón, para deshacerse del exceso de sales que incorporan con el alimento o al beber, necesitan un mecanismo adicional. En efecto, disponen de glándulas de sal, que se encuentran en la cabeza. Las glándulas producen una secreción cuya concentración osmótica puede ser cuatro o cinco veces más alta que la de la sangre, y también superior a la del agua de mar. Gracias a ellas, lagartos, tortugas y aves pueden obtener agua pura del agua de mar. En lagartos y aves las secreciones son evacuadas a través de los conductos nasales. En las tortugas se expulsan en forma de lágrimas. Las serpientes marinas son la excepción, porque sus glándulas de sal no parecen ser lo efectivas que debieran para evitar la deshidratación; por esa razón han de beber agua dulce. Ese factor limita su distribución a mares tropicales en los que se producen tormentas intensas que generan capas superficiales de agua dulce, o a las desembocaduras de los ríos.

Al menos en aves, el control de la producción de secreciones salinas a cargo de las glándulas corresponde a la división parasimpática del sistema nervioso autónomo. Cuando los osmorreceptores cardiacos o encefálicos detectan una subida en la concentración salina en la sangre, los nervios parasimpáticos liberan acetilcolina en las glándulas salinas, lo que induce la apertura de canales de Cl– y de K+ en las células de cloruro de las glándulas salinas. Así se produce la secreción.

Los mamíferos son los vertebrados que tienen la capacidad de producir la orina más concentrada. Ese rasgo es clave para permitir a cetáceos y pinnípidos una regulación hiposmótica efectiva. Los mamíferos marinos que se alimentan de peces teleósteos no tienen mayor problema, dada la baja concentración osmótica de los fluidos corporales de estos. Los que comen invertebrados -como la ballena azul, que se alimenta de krill- sin embargo, sí lo tienen, pues ingieren una comida cuya concentración de sales es idéntica a la del agua en la que viven.

En lo relativo a la cuestión de si beben o no beben, hay cierta controversia. De acuerdo con algunas determinaciones experimentales, al menos algunas focas beben agua de mar y pueden permanecer durante largos periodos de tiempo sin acceder a agua dulce. Y en lo que se refiere a los cetáceos, se cree que los delfines sí beben agua de mar, aunque no lo hagan en volúmenes importantes, y dado que se han visto ballenas comiendo hielo, se cree que siempre que tienen ocasión ingieren agua dulce para, de ese modo, aliviar parcialmente el trabajo renal. Los mamíferos carecen de glándulas de sal o estructuras equivalentes, por lo que solo disponen de los riñones para regular la concentración osmótica de su sangre a la vez que evitan la deshidratación.

Dejamos para el final el único anfibio conocido que frecuenta aguas salobres o saladas. Se trata de Fejervarya cancrivora, una rana que vive en los manglares del sudeste asiático y que se alimenta de cangrejos. La forma que tiene esta rana de resolver sus problemas osmóticos es mixta. Los renacuajos se comportan como los peces osteíctios marinos, regulando la concentración osmótica y salina de su medio interno y manteniéndolas en valores relativamente bajos. Las ranas adultas, sin embargo, hacen lo que los peces condrictios, acumulando urea en sus fluidos corporales. La única diferencia reseñable entre el comportamiento de estos y el de Fejervarya cancrivora es que esta, en vez de reabsorber la urea en el riñón como hacen los peces, reduce la producción de orina y así conserva la mayor parte de la urea sintetizada por el hígado.

En conclusión, los mecanismos que han desarrollado los tetrápodos acuáticos se asemejan mucho a los que conocíamos en otros grupos y más concretamente, en los demás vertebrados, los peces. La principal novedad son las glándulas de sal que aportan los reptiles, aunque glándulas similares ya eran conocidas en peces condrictios, si bien en una disposición muy diferente.

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo Los intercambios de agua y sales en los tetrápodos acuáticos se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La regulación osmótica de los animales de agua dulce
  2. La distribución del agua animal y el curioso caso del potasio
  3. Los animales que respiran en agua
Catégories: Zientzia

Cosmogonías y química

Cuaderno de Cultura Científica - mar, 2018/05/15 - 11:59

Una espectacular combinación de rodocrosita (rosa), calcopirita (amarillo latón y negro), cuarzo (blancuzco-incoloro), esfalerita (grisáceo) y pirita (amarillo oro, abajo a la derecha). Foto: Quebul Fine Minerals

A la hora de clasificar las rocas en primarias y secundarias los mineralogistas encontraron que los dos grandes problemas de la mineralogía, clasificación y origen, teníanmucho en común. De hecho, era muy difícil hallar una justificación para esta clasificación si no se tenía en cuenta la cosmogonía, esto es, el estudio del origen del planeta y los cambios que se habían producido en él desde entonces.

Desde el siglo XVII los cosmogonistas habían asumido, apartir de la forma globular del planeta, que en el algún momento del pasado había tenido que ser un fluido. En el motivo de esta fluidez ya se podían apreciar dos campos. Estaban los que afirmaban que la fluidez había sido debida al calor, pero eran minoría. La mayoría, los que se dedicaban a la mineralogía, precisamente, preferían el agua, como dejó por escrito Johann Joachim Becher en su Physicae subterraneae (1669).

Physicae subterraneae (1669)

Los mineralogistas de finales del XVII y del XVIII llegaron al convencimiento de que en algún momento del pasado la superficie de la Tierra estuvo cubierta por un océano muy rico en sustancias químicas. Las rocas primarias habrían sido las primeras en precipitar y cristalizar a partir de este océano formando las grandes cadenas montañosas. Esta conclusión venía soportada por el hecho de que los químicos de la época estuviesen convencidos de que los cristales solo podían formarse a partir de disoluciones acuosas y no a partir de sustancias fundidas.

Conforme el agua veía disminuir la concentración de sustancias y comenzaban a funcionar los mecanismos de la erosión, olas, lluvias, ríos, en las nuevas cadenas montañosas, el océano comenzó a decantar cieno que terminaba solidificándose y formando las rocas secundarias, estratificadas. Esta teoría, conocida como neptunismo, alcanzó su apogeo con Abraham Gottlob Werner. [1]

Edición de 2011 del libro de Rose.

Desde alrededor de 1830 a 1873 [2] los mineralogistas se vieron arrastrados por los desarrollos de la química moderna, lo que marcó la forma en la que miraban y clasificaban los minerales. Notablemente, sería Jöns Jacob Berzelius, un químico sueco, la persona que distinguió por primera vez entre silicatos y aluminatos, las dos grandes clases de compuestos más abundantes en la corteza terrestre. Como consecuencia de esta influencia química Gustav Rose publicó la clasificación de minerales más exhaustiva y amplia jamás publicada en su Das Krystallo-chemische Mineralsystem (1852). El libro de Rose es un hito de la ciencia y es tan completo que aún se reedita en lengua alemana.

La última edición del Dana, en 3 volúmenes (1962)

Sin embargo, en su día a día y por motivos prácticos, lo mineralogistas continuaron usando características externas. Friedrich Mohs, conocido por la escala de dureza, desarrolló toda una sistemática de identificación. Pero sería su adaptación a una audiencia americana por parte de James Dwight Dana la que terminaría triunfando. Tanto es así que su System of Mineralogy, publicado originalmente en 1837, no es que fuese un libro de consulta casi obligada como el de Rose, sino libro de texto de refrencia, con continuas actualizaciones hasta 1962 [3].

Notas:

[1] Por su interés, dedicaremos un capítulo completo a esta teoría y su alternativa, el plutonismo, más adelante.

[2] Si bien la primera fecha es groseramente aproximada y un tanto arbitraria, la segunda corresponde con la publicación del texto de microscopía mineral de Rosenbusch, que veremos en la siguiente entrega de la serie.

[3] Tanto es así, que cuando hablemos de clasificación mineral contemporánea ésta no será más que la de Dana actualizada.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

El artículo Cosmogonías y química se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. De la materia a la vida: ¿Química? ¡Química!, por Jean-Marie Lehn
  2. Montañeros, espeleólogos y mineros
  3. #Naukas14 La química del arte…pero bien
Catégories: Zientzia

Garbigailuen zikinkeriak

Zientzia Kaiera - mar, 2018/05/15 - 09:00
Josu Lopez Gazpio Bakterioak erraz sartzen dira etxeetako garbigailuetan: arropa zikina, oheko maindireak, komuneko eskuoihalak, garbigailuak berak erabiltzen duen ura, eta abar, mikrobioen iturri amaiezinak dira. Arroparen garbiketa amaitzean, bisualki eta higienikoki garbia egotea espero da, baina, etxeko garbigailuek arropa garbitzen badute ere, ez dituzte jantziak esterilizatzen. Horrek, zenbait kasutan, garbigailuan garbitu berri den arropan mikroorganismoak egotea ekar dezake. Garbigailuetan gertatzen diren prozesu mikrobiologikoak aztertu dituzten ikerketen ondorioen arabera, garbigailuan arroparen arteko mikroorganismo transferentziak gerta daitezke eta bakterio zein onddo patogenoen kopurua handitu egin daiteke arropa garbitu ondoren. Era berean, garbigailu bera erabiltzen duten lagunen arteko mikroorganismo trukaketak ere gerta daitezkeela frogatu dute.

1. irudia: Garbigailuek arropa garbitzen dute, baina, ez dute esterilizatzen. Tenperatura hotzean garbitzen denean, gainera, mikrobio gutxiago kentzen dira. (Argazkia: RyanMcGuire – domeinu publikoko irudia. Iturria: pixabay.com)

Azken hamarkadetan arropa garbitzeko prozedurak asko aldatu dira ingurumenagatik eta arrazoi ekonomikoengatik. Egungo garbigailuetan ez dira tenperatu altuak erabiltzen, ur gutxiago kontsumitzen da eta entzimetan oinarritutako garbigarriak gehiago erabiltzen dira lixiban oinarritutakoak baino. Guzti horrek asko aldatu du garbiketa egiteko prozedura, baina, baita arroparen higiene-kalitatea ere. Europan, oro har, 30-40 ºC arteko tenperaturak erabiltzen dira ohiko garbiketak egiteko eta oso kasu gutxitan erabiltzen dira 60 ºC baino tenperatura altuagoak -AEBn, esaterako, garbiketen %5ak bakarrik gainditzen du tenperatura hori-. Hain zuzen ere, tenperatura horretatik gora hiltzen dira bakterio patogenoak. Frogatu denez, 60 ºC azpiko tenperaturatan bakterioek bizirik jarrai dezakete eta arroparen kutsadura gurutzatua gerta daiteke -arropa batean dauden mikroorganismoak beste jantzi batera igarotzea-. Esaterako, Staphylococcus aureus eta S. epidermis bakterio patogenoek bizirik jarrai dezakete 50 ºC azpitik egindako garbiketa prozesuen ondoren.

Oro har, 40 ºC azpiko tenperaturak erabiltzen badira lixiba erabili behar da desinfekzio eraginkorra lortzeko. Lixibak kloroan edo peroxidoan oinarrituta daude -sodio hipokloritoa, kasu-, eta egun ere arruntak dira ospitaletako arropa garbitzen denean desinfekzioa lortzeko. Aitzitik, etxeko garbigailuetan erabiltzen diren garbigarriek ez dira desinfekziorako erabiltzen eta, hortaz, zikinkeria kentzea helburu duten produktuak erabiltzen dira. Horren ondorioz, bizirik jarraitzen duten bakterioek biofilmak osatzen dituzten garbigailuetan eta oso erresistenteak bihurtzen dira. Gainera, egungo garbigailuek plastikozko atal asko dituzte eta horiek oso egokiak dira mikrobioez osatutako biofilmak mantentzeko -frogatu denez, komunean baino mikroorganismo patogeno gehiago egon ohi dira garbigailuan-.

2. irudia: irudia: Garbigailuetan dauden mikrobioak karakterizatzea garrantzitsua da haiek modu eraginkorragoan kendu ahal izateko. (Argazkia: stevepb – domeinu publikoko irudia. Iturria: pixabay.com)

Biofilmak garbigailuan

Biofilmak mikrobioen biziraupenerako bizileku egokienak dira: mikrobio multzo handia elkartzen da eta zelulakanpoko substantzia polimerikoak ekoizten dituzten babes moduan. Babes horri esker, biofilmak erresistenteagoak dira eraso kimiko, fisiko eta mekanikoekiko. Oro har, etxeko hainbat lekutan biofilmak aurkitu izan dira, esate baterako, ontzi- eta arropa-garbigailuak, dutxak eta bestelako etxeko gainazal asko. Biofilm horietan, gainera, hainbat mikroorganismo patogeno identifikatu ahal izan dira. Esan bezala, arropa-garbigailuak dira biofilmak eratzeko aukera ezin hobeak eskaintzen dituen gunea: ingurune hezea eta nutriente ekarpen amaigabea aurkitzen dute bertan bizi diren mikrobioek.

Oro har, mikroorganismoak arropa zikinarekin edo urarekin batera sartzen direla frogatu da, eta gero biofilmak osatzen dituzte. Hain zuzen ere, horiexek dira arroparen usain txarraren erantzule nagusienak. Arestian aipatu bezala, egun erabiltzen diren garbiketa prozesuek asko laguntzen diete biofilmei, nagusiki, tenperatura baxuagoen eta lixibarik gabeko garbigarrien erabilpena. Esan behar da, biofilmetan osasun arazoak sorraraz ditzaketen mikrobioak identifikatu direla, nagusiki kutsatze gurutzatuaren ondorioz gerta daitekeena. Esaterako, jantzi estuen erabilpenaren eta garbiketaren ondorioz bagina-kandidiasia kutsa daitekeela frogatu da.

Ilka D. Nix eta bere lankideek biofilmetan dauden mikroorganismoen karakterizazioa egin zutenean sailkapen garrantzitsu bat egitea lortu zuten: garbigailuak duen garbigarriak gehitzeko ontzitxoetan eta atearen gomazko junturetan daude mikroorganismo gehienak. Ontzitxoetan bakterioak dira nagusi -Rhizobium sp., Ochrobactum sp., Methylobacterium sp. eta Rhodotorula spp.eta gomazko junturetan, aldiz, onddoak -Acinetobacter spp., Pseudomonas spp. eta Cladosporium spp.-. Horren arrazoia zera da: onddoak tenperatura altuekiko erresistenteagoak dira bakterioak baino eta, hortaz, uraren tenperatura altuagoa jasan dezakete. Hala ere, zenbait bakterio eta onddo –Stenotrophomonas eta Rhizobium motakoak – bi lekuetan aurki daitezke.

Ikerketa horren ondoren, C. Callewaert eta bere lankideek antzeko analisia egin zuten etxeko arropa garbigailuetan gertatzen diren bakterio trukaketak aztertzeko. Haien ikerketaren arabera, Proteobacteria mota zen mikrobio mota ugariena eta Bacteroidetes zen bigarren multzorik garrantzitsuena. Bi horiek, ziur aski, garbigailura sartzen den urean zuten jatorria. Alabaina, kotoizko arropetan Actinobacteria eta Firmicutes motakoak ziren nagusi. Gainera, kotoizko arropa guztien kasuan, zikinak zeudenean detektatutako bakterio mota guztiak berriro detekta zitezkeen arropa garbian, alegia, garbiketa prozesuak ez du desinfekziorako balio. Are gehiago, zenbait bakterio kantitate handiagoan aurkitzen ziren garbiketaren ondoren. Antza, garbigailu barruan mikrobioen trukaketa gertatzen da arropa guztien artean eta horregatik bakterio mota gehiago aurki daitezke garbiketaren ondoren. Adibide moduan aipatzen dute Corynebacterium eta Staphylococcus sp. motakoak -besapean egon ohi direnak-, arropa guztira zabal daitezkeela garbiketaren ondoren.

3. irudia: Garbigailuen gomazko junturetan onddoak dira nagusi eta garbigarria jartzeko ontzitxoan, aldiz, bakterioak. (Argazkia: dawnsinclair – domeinu publikoko irudia. Iturria: pixabay.com)

Zer egin?

Biofilmen agerpenak hainbat arazo ekar ditzake, besteak beste, usain txarrak agertzea, garbigailua hondatzea eta azaleko gaixotasunak eragitea. Oro har, biofilmak kentzeko desinfekzio kimikoa -lixibak erabiliz-, fisikoa -gehiago zentrifugatuz, biofilma eskuz garbituz- edo termikoa -tenperatura altuagoan garbituz- egin beharko litzateke. Ikerketek erakutsi dutenez, garbiketa tenperaturak txikitzeko joerak desinfekzio prozesua oztopatzen du eta, horren aurrean, beste aukera garbiketa zikloen iraupena luzatzea da. Hala ere, ikerketetan aitortzen denez, ez dago argi tenperatura murrizketa guztiz oreka daitekeenik garbiketaren iraupena luzatuz. Lixiban oinarritutako garbigarriek desinfekzioa laguntzen dute, baina, arropari kalte egin diezaioke garbiketa sakonegiak. Beste aholkuen artean, gomendatzen da hilabetean behin tenperatura altuko garbiketa bat egitea, arroparik gabe eta lixiba erabiliz, garbigailua ahal den neurrian desinfekta dadin. Edozein kasutan, garbigailuetan dauden biofilmen azterketa gai berria da eta ikerketa gehiago beharrezkoak izango dira horien arriskuak ebaluatzeko eta, balizko osasun arriskuen aurrean irtenbideak bilatzen hasteko.

Erreferentzia bibliografikoak:

Callewaert Chris, Van Nevel Sam, Kerckhof Frederiek-Maarten, Granitsiotis Michael S., Boon Nico., (2015). Bacterial Exchange in Household Washing Machines. Frontiers in Microbiology, 2015 (6), 1381. DOI:10.3389/fmicb.2015.01381

Nix Ilka D., Frontzek André, Bockmühl Dirk P., (2015). Characterization of Microbial Communities in Household Washing Machines. Tenside Surfactants Detergents 2015 (52), 6, 432-440. DOI:doi.org/10.3139/113.110394

Informazio osagarria:

The post Garbigailuen zikinkeriak appeared first on Zientzia Kaiera.

Catégories: Zientzia

Marcas de agua digitales, qué son y para qué sirven

Cuaderno de Cultura Científica - lun, 2018/05/14 - 17:00

Juanjo Unzilla

Las facilidades que ofrece Internet para el acceso y la transmisión de forma sencilla e inmediata de información han supuesto la aparición de nuevos escenarios para negocios y mercados tradicionales. En unos segundos se pueden hacer compras de materiales digitales o de productos físicos desde cualquier lugar donde se disponga de una conexión y un terminal con unas mínimas capacidades de procesamiento y conectividad. Ello ha acentuado la necesidad de analizar y hacer propuestas diferentes para el entorno digital, el entorno de los bits, de las que han servido para el comercio y el intercambio en el mundo físico, en el mundo de los átomos.

Uno de los escenarios que ha suscitado amplios debates y ha promovido grandes desarrollos de tecnología es el del comercio de contenidos digitales y la gestión de los derechos de propiedad intelectual asociados. Después de varios años debatiendo sobre ello, sigue sin existir una solución sencilla y aceptada por todas las partes implicadas. El marcado del material digital, ya sea en formato de texto, audio, imágenes o vídeo es una de las tecnologías que pretende ofrecer herramientas para hacer realidad esa solución sencilla, al menos en su uso.

Como todos comprobamos a diario, Internet es un magnífico instrumento para la difusión de contenidos digitales y ello es una gran ventaja para quien quiera difundir sus creaciones, ya sean canciones, videos, fotos o textos. Sin embargo, esta facilidad para la difusión y el acceso supone una debilidad en lo que respecta al control de los datos, en la medida que se facilita la obtención y copia de información, en muchos casos sin una adecuada gestión de los derechos de autor de la misma. A una persona que crea un contenido puede estar interesada darle la mayor difusión y llegar al mayor número de espectadores posible, pero a la vez evitar la falsificación, la apropiación por una tercera persona de su obra o la utilización ilegal de la misma. Para conseguirlo, necesita alguna forma de marcar sus trabajos para acreditar su autoría y sus derechos ante terceros, de forma que pueda demostrar que es el creador del material en cuestión. Las marcas de agua pueden ser una herramienta útil para ello.

Imagen: Wikimedia Commons

Marcas de agua digitales

Una marca de agua digital es una información o señal que se inserta en un contenido digital que puede ser utilizada para determinar la propiedad del mismo, saber quién lo ha creado y quién lo ha vendido o para asegurar su integridad. El término marca de agua procede de una analogía con las imágenes que se graban en los billetes para garantizar su autenticidad, muy difíciles y costosas de reproducir y que generalmente no son perceptibles a simple vista, pudiéndose observar al trasluz. En inglés se utiliza la palabra watermark, cuya equivalencia en español es filigrana, sin embargo, lo habitual es usar la traducción literal: water (agua) – mark (marca).

La utilización de marcas en distintos soportes, generalmente en papel o similares, es una técnica empleada desde la antigüedad. Los griegos ya la utilizaron, pero fue con la aparición de la imprenta cuando su uso se hizo más habitual. Su principal objetivo era la acreditación de la calidad del material así como la originalidad y autenticidad del mismo.

Al ser una marca de agua digital un conjunto de datos que se insertan directamente sobre el material multimedia, esto significa que la marca implica una modificación del propio contenido. La señal digital es modificada y algunos de los bits que representan el contenido son parcial o totalmente cambiados. En ningún caso estas modificaciones deben suponer una degradación de la calidad del material ni alterar las condiciones en las que éste va a ser leído, escuchado o visto.

Antes de pasar a explicar los diferentes tipos de marcas de agua y sus aplicaciones, voy a tratar de exponer de una forma sencilla los fundamentos científicos que se utilizan en esta tecnología.

El mundo en el que vivimos y en el que actúan nuestros sentidos es un mundo analógico. ¿Pero qué es eso de “analógico”? La palabra analógico procede de análogo, y ésta del griego (ana, reiteración o comparación y logos, razón) y según la RAE significa en su segunda acepción “Dicho de un aparato o de un instrumento de medida: Que la representa mediante variables continuas, análogas a las magnitudes correspondientes”, es decir, aquello que representa o mide una magnitud física mediante una función matemática continua. Una señal analógica, es según la Wikipedia, un tipo de señal generada por algún tipo de fenómeno electromagnético y que es representable por una función matemática continua en la que es variable su amplitud y periodo (representando un dato de información) en función del tiempo. Algunas magnitudes físicas comúnmente portadoras de una señal de este tipo son eléctricas como la intensidad, la tensión y la potencia, pero también pueden ser hidráulicas como la presión, térmicas como la temperatura o mecánicas como la fuerza.

En la naturaleza, el conjunto de señales que percibimos son analógicas, así la luz, el sonido, la energía etc, son señales que tienen una variación continua. Incluso la descomposición de la luz en el arco iris vemos como se realiza de una forma suave y continua.

Una onda sinusoidal es una señal analógica de una sola frecuencia. Los voltajes de la voz y del video son señales analógicas que varían de acuerdo con el sonido o variaciones de la luz que corresponden a la información que se está transmitiendo.

Desde hace varias décadas la información se almacena en formato digital por su mayor calidad, su mayor facilidad de procesado, compresión, transmisión, corrección de errores y regeneración y por su mejor respuesta al tratamiento del ruido y otras interferencias. Para ello es necesario convertir la señal analógica en digital, en una sucesión de ceros y unos. Y esto se hace con conversores analógico-digitales. Y para poder oír una canción, leer un texto o ver una foto o un video, dado que nuestros sentidos funcionan de forma analógica, es preciso realizar la conversión inversa. Para ello tenemos altavoces y pantallas que transforman los ceros y unos en sonidos e imágenes.

Nuestros sentidos tienen un rango limitado dentro del cual son capaces de percibir las señales que nos llegan: el oído sano sólo es capaz de oir aquellos sonidos que se encuentra entre los 20 Hz y los 20 KHz, lo que equivale a unas 10 octavas completas. Por debajo de 20 Hz, infrasonidos, o por encima de 20 KHz, ultrasonidos, nuestros oídos no perciben la señal. Lo mismo ocurre con la vista. El espectro visible, entre 400 y 700 nm de longitud de onda, se denomina así precisamente porque es lo que una persona puede ver. Longitudes de onda inferiores a 400 nm, ultravioleta, o superiores a 700 nm, infrarrojo, resultan invisibles para el ojo humano medio.

Pero el hecho de que no podamos ver u oír una señal no quiere decir que no pueda formar parte de la información que se envía o se almacena. Y es precisamente en estos límites donde podemos jugar para introducir información en forma de marca de agua digital.

Para el caso de imágenes, la marca de agua puede definirse como una imagen digital que se introduce en la imagen original y posteriormente puede ser recuperada y analizada de una forma u otra en función del tipo de marcado y de su finalidad. De igual forma se puede insertar un sonido no audible en una canción o ambas cosas a la vez, una imagen y un sonido, en el caso de un video. En el caso del vídeo se puede utilizar también la variable tiempo, es decir, en qué instante o instantes de tiempo de la secuencia se introduce la marca, o si en unos se modifica sólo el audio y en otros la imagen o se realiza una combinación más o menos compleja de ambas operaciones.

El principal problema planteado radica en la propia naturaleza del material creado digitalmente, ya que una vez producido el original, la realización de copias es un proceso sumamente sencillo, las copias son idénticas al original e indistinguibles de éste y entre sí. Es por ello que el valor añadido del material se produce exclusivamente en la creación del original, de forma similar a lo que sucede en la creación de software.

Las primeras aplicaciones de las marcas de agua fueron las destinadas a la identificación del autor y por ello, los requerimientos que debían satisfacer los métodos de marcado eran los siguientes:

  • Debe ser invisible a la percepción humana y no debe afectar a la calidad del material digital.
  • La marca recuperada debe identificar de forma no ambigua a la persona propietaria.
  • No debe ser detectada mediante pruebas estadísticas.
  • Debe ser difícil de eliminar, es decir, la marca debe ser robusta a los diferentes algoritmos de procesado de señal como pueden ser los filtros, compresiones, reescalados, etc..
  • Debe ser difícil de falsificar.

En el caso de imágenes, los métodos y esquemas propuestos para el marcado digital se definen generalmente dos tipos de marcas, las visibles y las invisibles. De forma análoga podemos hablar de marcas audibles o inaudibles en el caso del audio. Así, los logotipos que aparecen en la transmisión de televisión pueden ser un ejemplo de marcas visibles. Sin embargo, las marcas invisibles se diseñan para ser lo más discretas e imperceptibles posible. Si se consideran otras aplicaciones como la garantía de posesión de un original o de no modificación, existen otras formas de clasificar las marcas teniendo en cuenta la técnica de procesado de la señal que se usa para insertar la marca, el método de extracción o el tipo de información que se incluye en el material digital cuando se produce el marcado.

Aunque el uso más extendido para las marcas de agua digitales es el de la protección de la propiedad intelectual, existen otras aplicaciones que además pueden requerir el uso de otras tecnologías como el cifrado o el uso de certificados digitales. En el siguiente artículo estudiaremos en mayor detalle las diferentes clasificaciones de marcas de agua digital propuestas, así como su nivel de adecuación a cada tipo de uso.

Sobre el autor: Juanjo Unzilla es ingeniero industrial, doctor en ingeniería de comunicaciones y profesor titular de telemática en el departamento de comunicaciones de la Escuela de Ingenieros de Bilbao (UPV/EHU). Ha trabajado extensamente en protección de derechos de autor en Internet.

El artículo Marcas de agua digitales, qué son y para qué sirven se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Una proteína humana para potabilizar agua
  2. ¿Para qué sirven las matemáticas?
  3. Identificando paleococineros por las marcas en los huesos
Catégories: Zientzia

La cultura no protege de la selección natural

Cuaderno de Cultura Científica - lun, 2018/05/14 - 11:59

Todavía hay quien piensa que, en cierto modo, la cultura o la tecnología nos protege de determinadas presiones selectivas. La ropa nos protege del frío, la medicina de las enfermedades, la agricultura del hambre, etc. Desde ese punto de vista, la cultura humana estaría actuando contra la selección natural que es, como es bien sabido, el principal motor de la evolución de las especies.

Sin embargo, la cultura ejerce un papel muy diferente en la evolución humana. Dado que la cultura puede definirse, de forma amplia, como cualquier comportamiento aprendido, si alguno de esos comportamientos aprendidos se convierte, por las razones que fuese, en un factor selectivo, tendríamos que concluir que incide en la evolución de la especie humana, no sólo porque neutraliza ciertas presiones selectivas, sino también porque genera otras. Kevin N. Laland (St. Andrews, RU), John Odling-Smee (Oxford, RU) y Sean Myles (Cornell, EEUU y Acadia, Canadá), entre otros, desarrollaron esa noción de forma brillante en un artículo publicado hace unos años y que se ha convertido ya en un clásico. Laland, Odling-Smee y Myles hicieron referencia a dos aproximaciones diferentes a la interacción entre cultura y selección natural. Una es la conocida como hipótesis de la construcción del nicho, según la cual los organismos tienen una cierta capacidad para, modificando las condiciones físicas del entorno, incidir en la selección natural; actuarían de esa forma como codirectores de su propia evolución y de la de otras especies.

Y la otra aproximación es la de la coevolución genético-cultural, para la que los estudios antropológicos han proporcionado cierto respaldo. Los genetistas son capaces de identificar los genes que se encuentran sometidos a mayor presión selectiva en la actualidad. Calculan que son unos 2.000 genes (el 10%) los que muestran alguna evidencia de estar sometidos a presión selectiva, y el periodo de tiempo durante el que se viene ejerciendo esa presión es de entre 10.000 y 20.000 años. Muchos de esos genes se encuentran bajo presión “convencional”, como pueden ser los responsables de codificar el sistema inmune, o como los responsables del color de la piel, relacionada, quizás, con el clima y la geografía.

De entre los casos en los que una práctica cultural ha afectado al genoma, el ejemplo mejor conocido es el de la ganadería para producción de leche y el gen de la lactasa. La mayor parte de los individuos de nuestra especie “apaga” el gen de la lactasa poco tiempo después de ser destetados, pero los europeos del norte, que descienden de un grupo de pastores de ganado de hace unos 7.000 años, mantienen el gen “encendido” durante toda la vida. Gracias a ello, pueden consumir leche, ya que la lactasa es el enzima que digiere la lactosa, el azúcar de la leche. Sin ese enzima no se puede digerir y ello causa problemas digestivos que pueden llegar a ser muy severos. Pero resulta que la tolerancia a la lactosa no sólo ha aparecido en europeos del norte; en tres pueblos africanos de pastores también se ha producido y lo más curioso es que la mutación que lo permite es diferente en cada uno de los cuatro casos. La ventaja derivada de esa mutación debió de ser muy importante, ya que se ha extendido de forma considerable en un tiempo relativamente breve.

Además del de la lactasa, hay otros genes que están siendo afectados por cambios en la dieta y en el metabolismo. Se trata de comportamientos culturales que, muy probablemente, reflejan el gran cambio que se produjo hace 10.000 años en la dieta humana durante la transición al Neolítico y la aparición de la agricultura y la ganadería. Las gentes que viven en sociedades agrarias consumen más almidón y tienen copias extra del gen que codifica la síntesis de la amilasa (la enzima que digiere el almidón) que quienes dependen más de la caza o de la pesca.

Muchos genes relacionados con el gusto y el olfato también dan muestras de estar sometidos a fuerte presión selectiva, lo que quizás refleja un cambio de dieta de gran importancia. Y finalmente, también los genes que afectan al crecimiento óseo se encuentran sometidos a presión, debido seguramente a la pérdida de peso que ha experimentado el esqueleto humano al pasar de la vida nómada a la vida sedentaria.

Referencia:

Kevin N. Laland, John Odling-Smee y Sean Myles (2010): “How culture shaped the human genome: bringing genetics and the human sciences together”, Nature Reviews Genetics 11: 137-148 doi: 10.1038/nrg2734

Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU

El artículo La cultura no protege de la selección natural se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La unidad de selección en la evolución y el origen del altruismo (6): La crítica de Godfrey-Smith a la selección centrada en el gen
  2. La unidad de selección en la evolución y el origen del altruismo (7): La selección multinivel
  3. La unidad de selección en la evolución y el origen del altruismo (8): Selección de parentesco y altruismo recíproco
Catégories: Zientzia

Pirinioetan bizi izan zen sirenio ugaztun berria aurkitu dute

Zientzia Kaiera - lun, 2018/05/14 - 09:00
Eurasiako lehendabiziko lau hankadun sirenioa eta Europa mendebaldeko espezie zaharrena da topatu dutena.

1. irudia: “Sobrarbesiren cardieli” sirenioaren eskeletoko ia hezur guztiak aurkitu dira: 3 buru-hezur, orno eta saihets ugari eta aurreko eta atzeko gorputz adarretako hezurrak.

Duela 42 milioi urte bizi izan zen sirenio itsas mamifero espezie berria deskribatu dute: “Sobrarbesiren cardieli”. Geoparque Mundial de la Unesco Sobrarbe-Pirineosen egin dute aurkikuntza, egungo Huescako Pirinioan Kantauri itsasora zabaldutako golkoko itsasertza zen garai hartan. Ugaztun primitibo honen 300 fosil baino gehiago aurkitu dira eta 6 indibiduo ezberdin direla ikusi da, haien artean banako jubenilak eta helduak.

Ezagutzen diren itsas ugaztun herbiboro bakarrak dira sirenioak, hori dela eta, “itsas-behi” ere deitzen zaie. Gaur egun, lau espezie baino ez daude, latitude tropikaletako ibai eta kostaldeetan bizi diren dugongoak eta manatiak.

Duela 50 milioi urte azaldu ziren lehendabiziko ugaztun itsastar hauek eta Afrikako ugaztun lehortar talde bat izan zen beraien arbasoa. Uretako bizimodura egokitzeko hainbat aldaketa pairatu zituen sirenioen gorputzak: ilea eta belarrien galera eta gorputz hidrodinamikoaren garapena, lepoa laburtuta eta gorputz adarretan aldaketa sakonak pairatuta.

Aurrealdeko gorputz adarrak hegats bilakatu ziren eta atzealdekoak desagertzeko joera erakutsi dute, pelbis eta femur bestigialetara murriztuta geratu arte. Bestalde, birika luzangak garatu zituzten, ia animaliaren gorputz osoa zeharkatzen dutenak. Honek, hegats itxurako isats lautuarekin eta hezur trinko eta lodien garapenarekin batera, sakonera txikiko igerilari motelak izateko ahalmena eman die eta hondoko itsas landarediaz elikatuta bizi dira.

2. irudia: Itsas ugaztun herbiboro bakarrak dira sirenioak,. Gaur egun, lau espezie baino ez daude, horien artean irudiko dugongoak eta baita manatiak.

Sirenioaren izena, “Sobrarbesiren cardieli”, Sobrarbe eskualdearen eta aztarnategiaren aurkitzailearen (Jesús Cardiel Lalueza) omenez jarri diote. Sirenioen eboluzioaren lehendabiziko urratsak aztertzeko garrantzitsua da espezie berri hau, izan ere, oraindik lau hankadun sirenioa da, atzealdeko gorputz adarrak funtzionalak zituen eta ingurune urtarrera guztiz egokituta ez zegoen.

Castejón de Sobrarbe aztarnategiko indusketa paleontologikoak 2009an hasi ziren eta ordutik Erdi Eozenoko (duela 42 milioi urte, gutxi gorabehera) aztarnategi honetan ornodunen 600 bat fosil berreskuratu dira, horietatik 300 baino gehiago sirenioenak. “Sobrarbesiren cardieli” sirenioaren eskeletoko ia hezur guztiak aurkitu dira: 3 buru-hezur, orno eta saihets ugari eta aurreko eta atzeko gorputz adarretako hezurrak, animalia hauetan atal garrantzitsuenak direnak barne (pelbisa, femurra eta fibula edo peronea).

Fibula, gainera, ezagutzen den zaharrena da. Dortoka, krokodilo, musker, marrazo eta ugaztun txikien fosilak eta baita ornogabe eta landare fosilak ere aurkitu dira aztarnategian. Fosil hauekin eta aztarnategiko ikerketa geologikoarekin batera, Sobrarbesiren sirenioa bizi zen paleoingurunea nolakoa zen jakin da. Sobrarbe eskualdeko gune hau Bizkaiko Golkora zabaltzen zen itsasertzeko eremu bat izango litzateke, landaretza eta klima tropikal bateko delta batean amaituko zena.

Fosilen kontserbazio ona eta ugaritasuna dela eta, Sobrarbeko sirenioak munduko Erdi Eozenoko sirenio fosil bildumarik onena da. Haien interesa are gehiago areagotzen da “Sobrarbesiren” Eurasiako lehendabiziko lau hankadun sirenioa dela eta Europa mendebaldeko espezie zaharrena dela kontutan hartuta. Aurkikuntza honek, Iberiar Penintsula eta batez ere Huesca probintzia ugaztun urtar hauen eboluzioaren lehendabiziko urratsak aztertzeko munduko gunerik garrantzitsu bihurtu du.

Iturria: UPV/EHU prentsa bulegoa: Duela 42 milioi urte Huesca-ko Pirinioetan bizi zen sirenio ugaztun berri bat aurkitu da

Erreferentzia bibliografikoa:

Díaz-Berenguer, Ester, Badiola, Ainara, Moreno-Azanza, Miguel, Canudo, José Ignacio First adequately-known quadrupedal sirenian from Eurasia (Eocene, Bay of Biscay, Huesca, northeastern Spain), Scientific Reports, DOI: 10.1038/s41598-018-23355-w.

The post Pirinioetan bizi izan zen sirenio ugaztun berria aurkitu dute appeared first on Zientzia Kaiera.

Catégories: Zientzia

Historia del bolígrafo

Cuaderno de Cultura Científica - dim, 2018/05/13 - 11:59

El mundo está lleno de cosas obvias a las que nadie observa ni por casualidad.”

Sherlock Holmes, en El sabueso de los Barkerville, según Sir Arthur Conan Doyle, 1902.

BiC naranja escribe fino, BiC cristal escribe normal.
BiC naranja, BiC cristal,
dos escrituras a elegir.
BiC, BiC,… BiC, BiC, BiC.”

Yo tengo en mi mano un cetro.
Mi cetro dice, habla, canta
con su punta luminosa:
en medio del papel planta
una luminosa rosa.
Entre mis dedos se mueve,
lo deslizo entre mis dedos
como una espada de nieve
en el centro de los ruedos.”

Blas de Otero, Bolígrafos, publicado en El Correo el 2 de abril de 2018.

La azada y el arado para el labrador, el yunque y el martillo para el herrero, el estetoscopio para el médico, la paleta y la grúa en la construcción y, en nuestro trabajo, por lo menos para mí, el bolígrafo, la pluma, el lápiz y, ahora, el teclado. Son las herramientas de trabajo para el que escribe. Me quedo con el bolígrafo pues es, sin duda, la herramienta que más utilizo. Contaré su historia.

El bolígrafo que ahora conocemos empezó a utilizarse en la década de los cuarenta del siglo pasado, hace casi 80 años, pero, como ocurre con todos los adelantos, tuvo precursores que hemos olvidado. Después de siglos de usar diferentes tipos de tinta para escribir, tinta que había tomar de un recipiente, la idea de ponerla en un tubo y colocar una bolita en un extremo cuya única función sea extenderla sobre la superficie en la que se quiere escribir, viene del siglo XIX. Sin embargo, presentaba muchas dificultades técnicas: fabricar bolas suficientemente pequeñas, colocar la bola en el cilindro con tinta, la propia tinta en exceso líquida o viscosa,… Todo ello se ha ido resolviendo con tiempo y mucho ingenio.

Casi todos los expertos nos recuerdan a John Loud, de Weymouth, Massachusetts, como el inventor del bolígrafo. Por lo menos recibió la primera patente de un cilindro con tinta y una bola en un extremo para escribir. Fue la patente número 392046 de Estados Unidos, de 30 de octubre de 1888. En el texto de la patente, Loud explica que su “invención consiste en un depósito de tinta mejorado, especialmente útil entre otros propósitos, para marcar superficies ásperas –como madera, papel rugoso, y otros artículos- que una pluma no lo puede hacer”. Loud trabajaba con pieles y necesitaba un instrumento de escritura para marcarlas.

Loud utilizaba un cilindro con la tinta, una bola metálica gruesa en el extremo para escribir y otras dos bolas de menor diámetro para que, junto a la grande, se deslizaran y no se atascaran. A estas últimas bolas las llamaba “anti-fricción”. Era difícil fabricar estas bolas y Loud fabricó algunos ejemplares de su invento pero nunca lo comercializó.

En los años siguientes, a finales del siglo XIX y principios del siglo XX, se presentaron varias patentes con el mismo sistema de bolas e, incluso, se fabricaron algunos de estos instrumentos de escritura, pero todos ellos tuvieron poco éxito. Las patentes se presentaron en Estados Unidos, Inglaterra, Francia, Alemania, Checoslovaquia y otros países.

Además, para los primeros bolígrafos se exigían características adecuadas para la manera en que se escribía entonces en los centros de trabajo. Por ejemplo, el sistema de bolas debía de ser lo suficientemente fuerte como para permitir una gran presión sobre el papel para la escritura simultánea de siete u ocho copias superpuestas en papel carbón.

En los años treinta se empieza a conocer al húngaro Laszlo Jozsef Biro, nacido en Budapest en 1899 y un verdadero “hombre del Renacimiento” tal como lo considera Henry Gostony, experto norteamericano en bolígrafos. Había estudiado medicina, era escultor, practicaba la hipnosis, pintaba, y era escritor y periodista y, además, inventor, que es lo que aquí nos interesa. Habían desarrollado una lavadora, un cambio automático para coches, la levitación magnética para trenes, un explosivo inflamable que luego sería el napalm, un método de separación de isótopos,… y, así, hasta 32 patentes.

Lazslo y su hermano György, químico, inventaron un instrumento de escritura con la bola en el extremo del cilindro para la tinta. Al diseño de Loud, con su bola central grande y las pequeñas alrededor para evitar una fricción excesiva, añadió un conducto de muy poco diámetro para llevar la tinta desde el depósito hasta la bola central. Así, consiguió que la tinta llegara a la bola por la gravedad y, además, por capilaridad al ser el conducto muy estrecho. La tinta, mejorada por György, el hermano químico, era muy viscosa para evitar los derrames y la evaporación pero, también, debía secarse lo más rápidamente posible en el papel.

Sin embargo, no consiguió que su invento interesara a financieros y fabricantes. Por casualidad, en un viaje por vacaciones en el Lago Balaton, en Hungría, o, según otros autores, en una estancia en los Balcanes, en Yugoeslavia, por su trabajo como periodista (era editor de un periódico con una tirada muy baja), una persona se interesó por aquel extraño instrumento de escritura que Biro utilizaba. Era el Presidente de Argentina Agustín Justo que le invitó a trasladarse a su país y, allí, montar una fábrica y comercializar su invento.

Era 1938 y, en principio, a los hermanos Biro no les interesó el viaje a Argentina, pero se veía venir la guerra en Europa y eran judíos. Huyeron a París en 1940 pero, cuando los nazis llegaron a la ciudad decidieron marchar a Argentina. En París habían conocido a un financiero, también húngaro, Johann Georg Meyne, dedicado a negocios de importación y exportación, que les ayudó a escapar y les acompañó a Argentina. Trabajaron juntos en el desarrollo del invento de Biro y se convirtió en uno de sus mejores amigos.

En Buenos Aires, Laszlo Jozsef Biro se convirtió en Ladislao José Biro, su hermano György fue Jorge Biro, y a Johann Georg Meyne se le conoció como Juan Jorge Meyne. Ladislao José Biro fundó la empresa Biro-Mayne-Biro, con su socio y su hermano.

Para 1943 ya tenían un modelo que funcionaba y al que llamaron Eterpen. Los hermanos presentaron la patente en Estados Unidos y se les concedió la certificación el 11 de diciembre de 1945 con el número 2390636. Antes, desde Hungría, habían patentado el invento en su país y en Suiza en 1938, en Francia en 1939, y, más tarde, desde Argentina, en ese país en 1940 y 1947.

Los hermanos Biro lo llamaron “esferográfica” pero se popularizó, sobre todo en Argentina pero también en muchos otros países, como biro, por el apellido de su fabricante. Poco después apareció el término bolígrafo que, por lo que sé hasta ahora, llegó desde España. El industrial catalán Amadeo Arboles registró en 1946 la marca “bolígrafo” a nombre de su madre Antonia. Al principio se le conoció como “pluma atómica” pero, en 1960, el término “bolígrafo” y el instrumento habían sido aceptados por el público y eran de uso común. Y pronto fue incluido como genérico en el “Diccionario de la lengua española”, que dice:

Bolígrafo. Instrumento para escribir que tiene en su interior un tubo de tinta especial y, en la punta, una bolita metálica que gira libremente.”

Amadeo Arboles era dueño de la empresa “Estilográfica Nacional” y fabricante de plumas y, en pocos años, también de bolígrafos con la marca Arpen. La empresa todavía sigue funcionando hoy con el nombre Molin.

Pero volvamos a 1943, en plena guerra mundial. Henry Martin, que había ayudado en la financiación del invento de Biro, le compró los derechos y contrató la venta de miles de bolígrafos a la RAF, la Real Fuerza Aérea inglesa, para usarlos en sus bombarderos. Funcionaban bien en altura, no les afectaban los cambios del clima y llevaban tinta que no se secaba y duraba mucho tiempo. Eran evidentes sus ventajas para el uso militar.

Llegó la noticia al Departamento de Guerra de Estados Unidos y, después de probarlo, se lo ofrecieron a las compañías Eversharp, Parker y Sheaffer y, aseguraron que, si los fabricaban, se los comprarían. En agosto de 1944, comenzó la fabricación en la Sheaffer.

Entonces entra en nuestra historia Milton Reynolds, de Chicago. Unos seis meses después de la decisión del Departamento de Guerra, Reynolds se interesó por el invento. Era un empresario, nacido en Minnesota, que había invertido en muchos negocios e inventos, y se había hecho millonario y, también, se había arruinado unas cuantas veces. Por ejemplo, fue uno de los primeros inversores en Syntex, la empresa pionera en la píldora anticonceptiva.

Mientras tanto, en Argentina y en 1944, Biro había cedido los derechos del bolígrafo o, mejor, del biro, para Estados Unidos a las compañías Eversharp y Eberhard Faber por dos millones de dólares. Comercializaron el invento con la marca Birome, de Biro y Meyne, y lo llamaron esferográfica.

Reynolds vio, en un comercio de Chicago, unos de los escasos bolígrafos de Biro. Era uno de los fabricados en Inglaterra por la compañía Miles-Martin para la RAF. Reynolds creyó en la importancia del producto y pensó que tendría unas grandes ventas al acabar la guerra. Declaró que era el sueño de los inversores. Viajó a Buenos Aires para conocer a Biro e investigar el origen de aquel producto tan sugestivo y que veía con un gran futuro. Allí se encontró con que los derechos ya eran de Eversharp y Eberhard Faber y volvió a Chicago dispuesto a fabricar su propio bolígrafo.

Contrató a un par de expertos ingenieros mecánicos y fabricó un prototipo de bolígrafo que no era exactamente igual al que vendía Biro. Este tenía la patente en Estados Unidos y Reynolds no lo podía copiar. En el bolígrafo de Biro, la tinta llegaba a la bola por gravedad y capilaridad pero, en el de Reynolds, solo lo hacía por gravedad. Y Reynolds era un genio de las ventas y lo anunció por todas partes. Decía, entre otras cosas, que “escribe bajo el agua”. Además, en años anteriores, Reynolds había vendido otros productos a muchas tiendas y grandes almacenes y, por ello, tenía una buena lista de posibles clientes con sus encargados de compras. Contactó con Gimble, unos grandes almacenes de Manhattan, firmó con ellos una exclusiva y les vendió 50000 bolígrafos que todavía no había fabricado. Volvió a Chicago y buscó una empresa para fabricarlos. La producción comenzó el 6 de octubre de 1945 y, solo 23 días después, los primeros bolígrafos Reynolds se vendía en Gimbel, en la tienda de la calle 32 de Manhattan con fecha 29 de octubre de 1945. El precio era de $12.50, aunque solo costaba 80 centavos fabricar cada unidad. Se convirtió en el perfecto regalo de Navidad de aquel año. Hacía mes y medio se había rendido Japón y había terminado la Segunda Guerra Mundial.

Para fabricar su bolígrafo Reynolds fundó la Reynolds International Pen Company. Consiguió, después del estreno del 29 de octubre, vender ocho millones de bolígrafos en seis semanas y por valor de $5.3 millones en tres meses. La compañía Eversharp, que tenía los derechos de la patente de Biro, denunció a Reynolds por copias su producto, y Reynolds contraatacó con una denuncia contra Eversharp por restringir la libertad de comercio. No he encontrado datos exactos de quien ganó todos estos juicios pero, está claro, todos se beneficiaron de la publicidad que despertaron. Era lo que se llamó la “guerra de los bolígrafos”. Fue cuando Eversharp fundó Parker, y un socio de Reynolds, Paul Fisher, creó Fisher, compañías que compitieron con Reynolds y todavía se mantienen en el mercado.

Cuando Eversharp empezó a vender sus bolígrafos con licencia Biro, era mediados de 1946 y el mercado ya era de Reynolds. Además, llegaron al mercado más de 150 firmas vendiendo cada una sus propios bolígrafos. Los compradores pronto detectaron que los bolígrafos Biro de Eversharp no eran tan buenos como los de Reynolds. Lo mismo pasaba con muchos de los bolígrafos de otras marcas: eran malos, las ventas cayeron y el precio comenzó a bajar desde aquellos extraordinarios $12.50 del primero de Reynolds. Sin embargo, las ventas, en número de bolígrafos vendidos crecían vertiginosamente: casi nada en 1949, 50 millones en 1951, 300 millones en 1957, 475 millones en 1958, 650 millones en 1959, 900 millones en 1061, y 1000 millones en 1962.

Pronto Reynolds comenzó a exportar sus bolígrafos a todo el mundo y, sobre todo, a Europa donde había dinero para comprarlos. Pero fue en Francia, en concreto, donde apareció el que conseguiría colocar un bolígrafo en el bolsillo de casi todos los habitantes de nuestro planeta. Se llamaba Marcel Bich y, con Edouard Buffard, fundó en Clichy, Francia, una empresa que fabricó un bolígrafo de plástico en 1948. Lo comenzaron a vender en Francia en 1953 con la marca, ahora famosa, de BiC, pensada solo con quitar la h del final del apellido del fundador. Era de plástico transparente y de sección hexagonal, lo que facilitaba el agarre y escribir con precisión por el usuario. La bola es de tungsteno según una patente sueca. Las bolas del bolígrafo de Biro eran de acero inoxidable y se fabricaban según técnicas de los relojeros suizos. El BiC escribe entre tres y cinco kilómetros de tinta.

En 1958 compró Waterman y entró en el mercado de Estados Unidos. Fue el modelo Cristal el primero que se vendió en aquel país. En la actualidad, BiC vende 20 millones de bolígrafos al día, unos 57 por segundo, y la empresa ha declarado que, en toda su historia, habían vendido 100000 millones de bolígrafos.

Referencias:

Anónimo. 2013. Estilográfica Nacional, la marca pionera de bolígrafos en España. La Vanguardia 26 abril.

Brachmann, S. 2014. The evolution of modern ballpoint pen: A patent history. IPWatchdog Blog. December 10.

Gostony, H. & S. Schneider. 1998. The incredible ball point pen. A comprehensive history & price guide. Schiffer Publ. Ltd. Atglen, Pennsylvania. 160 pp.

Hilton, O. 1957. Characteristics of the ball point pen and its influence on handwriting identification. Journal of Criminal Law and Criminology 47: 606-613.

Jiménez Cano, A. 2018. Historia del bolígrafo. Bolígrafos con Propaganda Blog. 21 febrero.

U.S. Patent nº 392046, October 30, 1888. John J. Loud.

Wikipedia. 2017. Ladislao José Biro. 6 noviembre.

Wikipedia. 2017. Marcel Bich. 13 noviembre.

Wikipedia. 2018. Milton Reynolds. 31 enero.

Sobre el autor: Eduardo Angulo es doctor en biología, profesor de biología celular de la UPV/EHU retirado y divulgador científico. Ha publicado varios libros y es autor de La biología estupenda.

El artículo Historia del bolígrafo se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. La poliomielitis: una historia sin final
  2. La historia de la humanidad en una isla
  3. #Naukas16 La verdadera historia de la penicilina
Catégories: Zientzia

Asteon zientzia begi-bistan #202

Zientzia Kaiera - dim, 2018/05/13 - 09:00
Uxune Martinez

Biologia

The Cornell Lab of Ornithology New Yorken dagoen Cornell Universityren ikerketa gunea da. 1915. urtean sortua, ordutik hona hegaztien ikerketa eta kontserbazioa dute gidalerro. Zientzia erabiltzen dute mundua ulertzeko eta kontserbazioa bideragarria izan dadin bideak aurkitzeko. Asier Sarasua biologoak Sustatu agerkarian kontatu digu maiatzaren 5ean Global Big Day ekimena antolatu zutela. Helburua izan zen, munduko txorizaleak aktibatu eta txorien behaketa masiboa egin ondoren jasotako datuak eBird.org plataforman gehitzea. Emaitzak nabarmenak izan dira, munduan zehar 28.000 txorizalek jasotako datuak gehitu dira datu-basean, guztira 1,6 milioi txori behatu zituzten.

Kilometro askotako bidaiak egiten dituzten hegaztiak daude. Migrazio luzeak egiten ditu, esaterako, ipar-txenadak. Hegazti hau eskualde artiko eta azpiartikoetan bizi da eta urtero Antartikarako bidaia abiatzen du neguan. Migratzaile aparta eta miresgarria da, urtero ia 40.000 kilometro egiten dituen ipar-txenada (Sterna paradisiaea). Juan Ignacio Pérez eta Miren Bego Urrutia biologoek azaldu digute, hori baino migrazio luzeagorik egiten duen animaliarik ez dela ezagutzen. Izan ere, ipar-txenadak bizitza osoan zehar, ilargira joan eta itzultzeko bidaiaren pareko distantzia egiten du! Zientzia Kaiera blogean, migratzaile aparta.

Zer gertatzen da animaliak drogaren mende suertatzen direnean? Josu Lopez-Gazpio kimikariak hainbat adibide plazaratu ditu asteon: 2016an Galesen marihuana landareen hondakinak jan zituen artaldeak pairatutako gaitza; drogak elefanteengan duen eragina ikertzeko erabili zuten elefantearen kasua edo substantzia psikoaktiboen eraginpean egonik hainbat forma eta tamaina desberdinetako sareak egin zituzten armiarmena. Kasu guztietan Josuk erakutsi digu drogek, gizakiengan gertatzen den bezalaxe, albo ondorioak dituztela animalietan ere. Besteak beste, desorientazioa, despertsonalizazioa, haluzinazioak edota paranoia eragin ditzakete. Datu guztiak “Animaliak drogatzen direnean” artikuluan.

Genetika

“Genomaren zaindaria” ezizenarekin ezagutzen da TP53 genea, berak sortzen baitu proteina garrantzitsu bat: p53 proteina. Gene honek beste 1.457 generekin elkarrekintzak ditu eta 112 prozesu biologikoetan parte hartzen du. Bera da gene ikertuen artean ohorezko tokia duena, XXI. mendeko lehen hamarkadan piztu zen berarekiko interesa eta ordutik aurrera gehien ikertu den genea dela azaltzen digu Koldo Garcia ikertzaileak. TP53 geneak p53 tumore-proteina sortzeko aginduak ematen ditu eta p53 proteina oso garrantzitsua da, tumore-ezabatzaile gisa jarduten baitu. Proteina hau gorputz osoko zelulen nukleoan aurkitzen da eta ezinbestekoa da zelula-zatiketan erregulatzeko eta tumoreen sorrera prebenitzeko.

Ingurumena

Egia esan ozono geruzari eragiten dizkiogun kalteak aztertzerakoan gutxitan pentsatzen dugu gure smartphoneak edo on-lineako jarduerak ere baduela eragina. Izan ere, zenbateko kostu energetikoa dauka sare sozialetan egiten dugun jardunak? Zenbat CO2 isurtzen dugu sare sozialetako jardunagatik? Egin kontuak: txio batek 90 joule inguru kontsumitzen ditu, hau da, 0.02g CO2 emisioen baliokidea. Segundo bakoitzeko 8.000 txio inguru argitaratzen dira. Azkue Fundazioak eman ditu datu zehatzak Sustatu agerkarian asteon: Internetek eta sare sozialek sortutako karbono aztarna.

Sydneyko Unibertsitateko Arunima Malik ikertzaileak gidatu duen nazioarteko ikertalde batek turismoaren aztarna ekologiko osoa neurtu du. Ikerketaren emaitzak adierazi du turismoaren aztarna ekologia uste zena baino handiagoa dela. Elhuyar aldizkarian jakinarazi dutenez, turismoa karbono-igorpen globalaren % 8aren erantzulea da, orain arte %4era ez zela heltzen uste zen arren.

Fisika

Pedro Miguel Etxenike fisikaria elkarrizketatu zuen Berriako Arantxa Iraola kazetariak. Europako Fisika Elkarteko kide berria izendatu dute zientzialaria, egindako ibilbideari nazioarteko aitormena emanez. Haren ibilbideaz eta zientziak gizartean duen garrantziaz jardun du DIPCko presidenteak elkarrizketan. Etxenikeren esanetan zientzia gizarteratzeak onurak dakarzkio gizarteari: “zientifikoki ongi informatutako gizarte bat libreagoa da; kultuagoa izanda, presio taldeek manipulatua izateko arriskua txikiagoa da, eta ahalmen handiagoa du herritar modura erabakiak hartzeko”. Merezi du Berriak argitaratutako solasaldia osorik irakurtzea: «Gero eta etika dudazkoagoan biziko gara; zalantzan bizitzen ikasi beharko dugu».

Medikuntza

Batzuetan gauzak aldrebesak bihurtzen dira. Hori berori da egun gertatzen zaiguna, adibidez, antibiotikoekin. Juanma Gallego kazetariaren hitzetan, “antibiotikoak bi ahoko armak dira: akabatu nahi ditugun bakterioak akabatzen dituzte, eta, bide batez, akabatu nahi ez ditugunak ere”. Horrez gain, osasun arloan badugu beste arazo bat, bakterioek antibiotikoen aurrean garatu duten erresistentzia. Munduko Osasun Erakundearen esanetan, gizateriak hurrengo urteetan izango duen arazo nagusienetakoa izango da berori. Mutazio genetikoei esker bakterioak antibiotikoen aurrean erresistente bihurtzen dira, eta horrek armarik gabe uzten gaitu haien aurkako borrokan. Baina esperantzarako bideak ere ireki dira. Juanma Gallegok asteon argitu digu, ikertzaile talde batek aurkitu duela lurzoruan bizi diren hainbat bakteriok penizilina “jateko” erabiltzen duten estrategia zein den, eta horri esker antibiotiko hobeagoak lortzea espero da.

Ikertzaile talde batek lehen aldiz lortu du giza garun organoideak beste espezie batean txertatzea. Elhuyar aldizkarian jakinarazi du Aitziber Agirre kazetariak, AEBko Salk Institutuko ikertzaileek giza zelula ametan oinarritutako garun txikien antzeko egitura batzuk sortu ondoren saguetan transplantatu dituztela eta funtzional mantentzea lortu. Xehetasun guztiak “Giza garun txiki funtzionalak lortu dituzte, saguei transplantatuta” artikuluan.

———————————————————————–
Asteon zientzia begi-bistan igandeetako atala da. Astean zehar sarean zientzia euskaraz jorratu duten artikuluak biltzen ditugu. Begi-bistan duguna erreparatuz, Interneteko “zientzia” antzeman, jaso eta laburbiltzea da gure helburua.

———————————————————————–

Egileaz: Uxune Martinez, (@UxuneM) Euskampus Fundazioko Kultura Zientifikoko eta Berrikuntza Unitateko Zabalkunde Zientifikorako arduraduna da eta Zientzia Kaiera blogeko editorea.

———————————————————————–

The post Asteon zientzia begi-bistan #202 appeared first on Zientzia Kaiera.

Catégories: Zientzia

Naukas Bilbao 2017 – Carmen Agustín: La hormona del amor no existe

Cuaderno de Cultura Científica - sam, 2018/05/12 - 11:59

En #Naukas17 nadie tuvo que hacer cola desde el día anterior para poder conseguir asiento. Ni nadie se quedó fuera… 2017 fue el año de la mudanza al gran Auditorium del Palacio Euskalduna, con más de 2000 plazas. Los días 15 y 16 de septiembre la gente lo llenó para un maratón de ciencia y humor.

Una hormona es una molécula que puede hacer multitud de cosas, dependiendo de multitud de factores. Por eso no existe una relación directa como “la hormona del amor”. Establecido eso, Carmen nos habla de la neurobiología del comportamiento maternal (y del paternal) como solo ella puede hacerlo.

Carmen Agustín: La hormona del amor no existe

Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus

El artículo Naukas Bilbao 2017 – Carmen Agustín: La hormona del amor no existe se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Naukas Bilbao 2017 – Ignacio López-Goñi: Las bacterias también se vacunan
  2. Naukas Bilbao 2017 – Francisco R. Villatoro: El espín para irreductibles
  3. Naukas Bilbao 2017 – José Miguel Viñas: Me río yo del cambio climático
Catégories: Zientzia

Ezjakintasunaren kartografia #215

Zientzia Kaiera - sam, 2018/05/12 - 09:00

Emaitza interesgarriak ditu geometria konputazionaleko klasiko baten hedapenak. David Ordenen Down in the depths ‘on’ Carathéodory’s theorem

Substantzia erabilgarrien iturri gisa interesgarria izan daiteke zurezko hondakinen aprobetxamendurako metodo berri bat. Pablo Ortizen artikulua Chemicals and fuels from plant waste

Ikuspuntu klasikotik ikertu daitezkeen portaerak eragin ditzakete tamaina pikometrikoko barrunbeek. DIPCkoek The multiscale nature of picocavities: a classical view to a quantum effect

–—–

Mapping Ignorance bloga lanean diharduten ikertzaileek eta hainbat arlotako profesionalek lantzen dute. Zientziaren edozein arlotako ikerketen azken emaitzen berri ematen duen gunea da. UPV/EHUko Kultura Zientifikoko Katedraren eta Nazioarteko Bikaintasun Campusaren ekimena da eta bertan parte hartu nahi izanez gero, idatzi iezaguzu.

The post Ezjakintasunaren kartografia #215 appeared first on Zientzia Kaiera.

Catégories: Zientzia

Cómo sabemos que el oro del Tesoro de El Carambolo era local

Cuaderno de Cultura Científica - ven, 2018/05/11 - 17:00

Piezas de oro del Tesoro de El Carambolo. Imagen: © Consejería de Cultura de la Junta de Andalucía / J. Morón.

El Tesoro de El Carambolo es una colección de piezas de oro del primer milenio antes de de la era común, cuyo origen ha sido durante unos 50 años el epicentro de un controvertido debate. Nuevos análisis químicos e isotópicos llevados a cabo por el Servicio de Geocronología y Geoquímica Isotópica – Ibercron de la UPV/EHU, por encargo de la Universidad de Huelva y del Museo Arqueológico de Sevilla, sugieren que el origen de ese oro no está a miles de kilómetros de donde se encontró dicho tesoro sino en un yacimiento situado a tan solo 2 km del lugar.

El elevado valor museístico de esta colección de piezas de oro limita drásticamente la posibilidad de usar técnicas clásicas de análisis de muestras disueltas, por lo que se ha utilizado de forma complementaria “un tipo de ablación láser que hace un pequeño orificio de tan solo unas 100 micras o 0,1 mm”, explica la doctora Sonia García de Madinabeitia, una de las encargadas de llevar a cabo los análisis. El citado servicio posee uno de los pocos laboratorios existentes en el contexto internacional que realiza análisis de isótopos de plomo para investigaciones arqueológicas. El laboratorio combina un sistema de ablación láser con la espectrometría de masas con fuente de plasma “con el que hacemos tanto los análisis de isótopos como los análisis elementales directamente sobre muestras sólidas y con la mínima afección posible”.

El grupo de investigación de la UPV/EHU determina las relaciones isotópicas en objetos arqueológicos, así como en los materiales relacionados con la manufactura de dichos objetos y en los potenciales minerales utilizados en su elaboración, a fin de establecer la procedencia de las materias primas. Según explica García de Madinabeitia, “estamos estableciendo una base de datos de los distintos yacimientos mineros antiguos, con los que establecer la relación que hay entre el resto arqueológico y la posible mina de la cual procede”.

“Nos basamos en una especie de huella dactilar del plomo —explica la investigadora—. Las relaciones isotópicas del plomo son diferentes en función de los materiales utilizados y de la edad de esos materiales, y nosotros determinamos la relación isotópica que tiene ese plomo. Porque hay notables diferencias de unos yacimientos minerales a otros”. Además de ello, los investigadores del laboratorio realizan análisis elementales, es decir, cuantifican los elementos traza y ultratraza que tienen los materiales, “porque sabemos que una mina por mucho que sea una mina de oro o de plata, los materiales nunca son puros, sino que tienen una serie de trazas y ultratrazas que permiten luego establecer relaciones entre los materiales arqueológicos y los materiales geológicos”, añade García de Madinabeitia.

Son muchos los grupos de investigación de centros e instituciones tanto de España (universidades, diputaciones, museos, CSIC, etc.) como de otros países (Reino Unido, Italia, Portugal, Francia, Estados Unidos, Australia) que han utilizado los datos obtenidos en el laboratorio de la UPV/EHU para investigar la procedencia de los metales en objetos arqueológicos de la más variada índole: desde pendientes de bronce etruscos, pasando por brazaletes y anillos de plata, lingotes y urnas funerarias de cobre o plomo, armas y útiles diversos de bronce, metalurgia nurágica de Cerdeña y otros muchos restos cuya antigüedad oscila entre 1.000 y 5.000 años.

A través de los numerosos estudios llevados a cabo por el grupo de investigación de la UPV/EHU, se han puesto de manifiesto hechos sumamente interesantes para el conocimiento de la antigüedad, como, por ejemplo, el abastecimiento local y el comercio de metales en el sur de la Península Ibérica mucho antes de la llegada de los primeros pueblos del Mediterráneo Oriental; el reciclaje del oro por las culturas del bajo Guadalquivir desde 3000 años antes de Cristo; o bien, el uso durante la Edad de Bronce de materias primas procedentes de áreas alejadas miles de km de distancia.

Referencia:

F, Nocete, R. Sáez, A.D. Navarro, C. San Martin, J.I. Gil-Ibarguchi (2018) The gold of the Carambolo Treasure: New data on its origin by elemental (LA-ICP-MS) and lead isotope (MC-ICP-MS) analysis Journal of Archaeological Science doi: 10.1016/j.jas.2018.02.011

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa

El artículo Cómo sabemos que el oro del Tesoro de El Carambolo era local se ha escrito en Cuaderno de Cultura Científica.

Entradas relacionadas:
  1. Cómo regular la velocidad de disolución de los biometales de las prótesis
  2. Si son tan buenos escondiéndose, ¿cómo sabemos que existen los camaleones?
  3. Artazu VII, una trampa mortal del Pleistoceno que es un tesoro
Catégories: Zientzia

Pages