Especies exóticas invasoras
Carrizo de la pampa, galápago de florida, mosquito tigre, avispa asiática… todas ellas son especies procedentes de otras latitudes, siendo diversas las razones de su introducción: propósitos ornamentales, pesca recreativa, industrias peleteras, etc. Estas especies se adaptan rápidamente al medio y compiten por el entorno con las demás especies autóctonas, convirtiéndose en una serie amenaza para la biodiversidad.

Si observamos la imagen conoceremos una pequeña muestra de las numerosas especies que se han introducido en diferentes hábitats procedentes de otros entornos y que constituyen una gran amenaza para la biodiversidad. Sin duda, el comercio internacional y el tránsito de personas han multiplicado las ocasiones para su expansión lejos de sus lugares de origen, aumentado también el problema que supone erradicarlas.
———————————-
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
Autora: Izaskun Alberdi Landaluze (@izas_ilustra), alumna del Postgrado de Ilustración Científica de la UPV/EHU – curso 2017/18
Artículo original: Los invasores. Juan Ignacio Pérez Iglesias, Cuaderno de Cultura Científica, 1 de mayo de 2016.
———————————-
El artículo Especies exóticas invasoras se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Metamorfosis criogénica de la rana del bosque
- En el mar, allí donde todo comienza
- Un ornitisquio emplumado
Geología: la clave para saber de dónde venimos y hacia dónde vamos
Si cerrásemos los ojos para visualizar la imagen de un geólogo, probablemente imaginaríamos a una persona descubriendo fósiles y recopilando y coleccionando minerales. No obstante, esta disciplina académica cuenta con muchísimas más aplicaciones desconocidas para gran parte de la sociedad.
Con el objetivo de dar visibilidad a esos otros aspectos que también forman parte de este campo científico nacieron las jornadas divulgativas “Abre los ojos y mira lo que pisas: Geología para miopes, poetas y despistados”, que se celebraron los días 22 y 23 de noviembre de 2018 en el Bizkaia Aretoa de la UPV/EHU en Bilbao.
La iniciativa estuvo organizada por miembros de la Sección de Geología de la Facultad de Ciencia y Tecnología de la UPV/EHU, en colaboración con el Vicerrectorado del Campus de Bizkaia, el Ente Vasco de la Energía (EVE-EEE), el Departamento de Medio Ambiente, Planificación Territorial y Vivienda del Gobierno Vasco, el Geoparque mundial UNESCO de la Costa Vasca y la Cátedra de Cultura Científica de la UPV/EHU.
Los invitados, expertos en campos como la arquitectura, el turismo o el cambio climático, se encargaron de mostrar el lado más práctico y aplicado de la geología, así como de visibilizar la importancia de esta ciencia en otros ámbitos de especialización.
Estíbaliz Apellaniz, doctora y profesora jubilada del departamento de Estratigrafía y Paleontología de la UPV/EHU, introduce en su intervención la geología como disciplina científica, y resume 4500 millones de años en 30 minutos.
Edición realizada por César Tomé López a partir de materiales suministrados por eitb.eus
El artículo Geología: la clave para saber de dónde venimos y hacia dónde vamos se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Zientziateka: Blanca Mª Martínez García – La geología fantástica de Verne, Poe y H.P. Lovecraft
- Las cartas de Darwin: ¡La geología por encima de todo!
- El metanol es clave para entender cómo se forman las estrellas
Metamorfosis criogénica de la rana del bosque
La rana del bosque, Lithobates sylvaticus, es un anfibio que sorprende porque pasa por una metamorfosis criogénica; es decir, se congela cuando hace mucho frío y cuando, semanas o meses después sube la temperatura, se descongela y recupera la actividad.

Los científicos, a lo largo de los años, han investigado la vida de esta especie para determinar si ese proceso de congelamiento y descongelamiento puede ser aplicado a los humanos.
———————————-
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
Autora: Patricia Nagashiro Vaca, alumna del Postgrado de Ilustración Científica de la UPV/EHU – curso 2017/18
Artículo original: El sueño criogénico. Juan Ignacio Pérez Iglesias, Cuaderno de Cultura Científica, 5 de febrero de 2017.
———————————-
El artículo Metamorfosis criogénica de la rana del bosque se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Control adaptativo de robots para rehabilitación
La investigadora del Departamento de Ingeniería de Sistemas y Automática de la UPV/EHU Aitziber Mancisidor Barinagarrementeria ha diseñado un algoritmo de control para dispositivos robóticos capaces de adaptarse a diferentes estados de recuperación de los pacientes en rehabilitación, sin repercusión en el coste del dispositivo.

En las últimas décadas, observando la necesidad de mejorar la calidad de vida de enfermos con movilidad reducida, y los progresos obtenidos gracias a la utilización de los robots en la industria, los dispositivos robóticos han sido propuestos para terapias de rehabilitación. “Los robots de rehabilitación permiten emular los ejercicios de un fisioterapeuta obteniendo tratamientos adaptados y precisos”, indica Aitziber Mancisidor, autora del estudio. Asimismo, “funcionan como una herramienta de medición que permite cuantificar fuerzas y/o movimientos. Y con ayuda de un interfaz gráfico, construyen un entorno de realidad virtual facilitando e incentivando el proceso de rehabilitación”, añade.
Sin embargo, debido a su reciente introducción al ámbito clínico, muchas de las áreas de la robótica de rehabilitación no han sido estudiadas en profundidad y existen varios aspectos a mejorar, entre ellos el control de los dispositivos. Ante esta situación, esta investigación se ha centrado en mejorar la parte del control de los dispositivos robóticos. “El dispositivo mecánico del robot es el encargado de realizar los movimientos, pero para que ese dispositivo se comporte de forma deseada es imprescindible diseñar un algoritmo de control que indique con qué fuerza y frecuencia se tienen que efectuar esos movimientos etc.”, explica Mancisidor.
Cualquier terapia de rehabilitación es un proceso largo. Al principio, los pacientes no tienen capacidad de generar movimiento, por lo que el robot es el que tiene que aportar ese movimiento de forma adecuada. Sin embargo, cuando el paciente va recuperando fuerza, el movimiento lo tiene que ejecutar el propio paciente y el robot le tiene que asistir o resistir. “Con el fin de dar respuesta a estas necesidades, se ha propuesto un algoritmo de control dividido en dos niveles: por un lado, calcula la asistencia que debe realizar el robot dependiendo del estado de recuperación del paciente y del ejercicio seleccionado; y por otro lado, controla la fuerza y el movimiento ejecutado por el robot generando movimientos suaves y seguros”, indica la investigadora de la UPV/EHU.
Asimismo, “el algoritmo de control diseñado se ha dotado con estimadores que permiten calcular la posición y la fuerza de contacto entre el dispositivo robótico y el usuario”, apunta Aitziber Mancisidor. “Una de las problemáticas de este tipo de robot es que existen muy pocos ejemplares en comparación con los robot industriales y por tanto su coste es muy elevado. Para reducir el coste de estos dispositivos de rehabilitación hemos utilizado varios estimadores de fuerza y movimiento en lugar de utilizar sensores costosos”, añade.
Por último, “hemos diseñado e implementado una plataforma de control y ejecución, que además de permitir la ejecución en tiempo real del algoritmo de control, sirve de puente de comunicación entre el robot de rehabilitación, el usuario y el controlador. Esta plataforma de control y ejecución ha permitido realizar diferentes pruebas experimentales del algoritmo de control propuesto, lo que ha posibilitado validar su funcionamiento en diferentes escenarios.
A la vista de los resultados obtenidos, la investigadora añade que “tanto por su capacidad de adaptarse a diferentes estados de recuperación de los pacientes como por su precisión los robot de rehabilitación pueden ser una buena alternativa en las terapias de rehabilitación del futuro”, concluye.
Referencia:
Mancisidor et al (2018) Kinematical and dynamical modeling of a multipurpose upper limbs rehabilitation robot Robotics and Computer-Integrated Manufacturing doi: 10.1016/j.rcim.2017.08.013
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Control adaptativo de robots para rehabilitación se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El aprendizaje continuo mejora la interacción de robots con humanos en lenguaje natural
- Cuando las proteínas son robots
- Naukas Bilbao 2017 – Diana González: Identidad digital y robots
En el mar, allí donde todo comienza
Se cree que el origen de la vida en la Tierra se dio hace 4.500 millones de años aproximadamente. En un intento constate por descubrir, el ser humano ha llegado a investigar en los más recónditos y profundos lugares.
A más de 4.000 metros de profundidad, en el fondo de los océanos, un grupo de investigación ha encontrado microorganismos fósiles que, según los indicios, pudieron albergar el posible origen de la vida.

———————————-
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
Autora: Paula Gómez Bernal, alumna del Postgrado de Ilustración Científica de la UPV/EHU – curso 2017/18
Artículo original: En lo más recóndito de nuestro planeta. Juan Ignacio Pérez Iglesias, Cuaderno de Cultura Científica, 11 de diciembre de 2016.
———————————-
El artículo En el mar, allí donde todo comienza se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un ornitisquio emplumado
- La evolución de los perros
- Asociación evolutiva entre la higuera común y las avispas
Las dietas detox ni desintoxican ni adelgazan
Después de las fiestas de Navidad y de los periodos vacacionales, muchos cambian el turrón y las bebidas alcohólicas por zumos detox y dietas milagro. Nace una especie de obsesión por purificar el organismo y ya de paso perder los kilos que hemos ganado. Hay que compensar los excesos. Tenemos la dieta de la alcachofa, del pomelo, de los zumos depurativos, del agua con limón, de la piña, etc. Este tipo de dietas ni sirven para perder peso, ya que tienen un efecto rebote que puede hacernos ganar más peso del que teníamos cuando la empezamos, ni sirven para desintoxicar nuestro organismo. Ningún alimento desintoxica. El concepto detox es muy marquetiniano, sirve para vender, pero desgraciadamente no sirve para nada más.
-
El origen de las dietas detox
La primera dieta milagro que causó furor fue la de la sopa de repollo en los años 60. Consistía en consumir exclusivamente sopa de repollo tres o cuatro veces al día. Sufrirías agotamiento y mareos, pero a cambio esa dieta te prometía bajar de peso.
Probablemente la primera dieta que se puso de moda como dieta detox fue la del pomelo allá por los años 70. ¿Por qué les dio por el pomelo y no por cualquier otra fruta o verdura? Nada tiene que ver con la salud. La razón fue que en esa década hubo un excedente en la producción de pomelo. Fue una estrategia brillante para revertir la relación oferta/demanda y que el pomelo subiera de precio.
El verdadero auge de los zumos detox ocurrió a partir de 2010. En esta década nacieron los juicers –algo así como zumeros-, personas que creen limpiar su organismo y controlar su peso a base de zumos detox. Esta suerte de movimiento surgió de la mano de Joe Cross, un empresario australiano que saltó a la fama por protagonizar la película Gordo, enfermo y casi muerto. Pesaba 140 kg y padecía una enfermedad autoinmune. La película es un documental en el que Joe Cross se pasa 60 días alimentándose de zumos. Hoy en día dirige una marca de salud y estilo de vida y es autor de varios libros. El movimiento de juicers que lidera le ha venido muy bien a la industria de las licuadoras: las ventas de licuadoras se dispararon tras el documental.
-
Nuestro organismo no necesita desintoxicarse
En nuestro cuerpo contamos con dos órganos detox por excelencia: el hígado y los riñones. También hacen lo propio la piel, los pulmones, el intestino y el sistema linfático. Es fisiología básica. No necesitamos un zumo de pomelo ni un agua con limón para animar a nuestros órganos a ponerse a trabajar. Ellos solitos ya saben bien lo que hay que hacer, y si no, estaríamos ante un cuadro de insuficiencia que desgraciadamente no se resuelve con zumos.
La intoxicación es un concepto médico. Nos podemos intoxicar con drogas o con venenos. De ahí el término desintoxicación que se aplica a las personas que padecen drogadicción. También podemos intoxicarnos con venenos, como quien ingiere lejía de forma accidental o quien consume un pescado contaminado con metales pesados. Ninguna de estas intoxicaciones se subsana con zumos o dietas milagro, sino con atención médica.
No obstante, se han hecho estudios científicos sobre las dietas detox. La conclusión es que no sirven para desintoxicar nuestro organismo ni tienen un efecto positivo sobre nuestra salud.
-
Las dietas detox ni desintoxican ni sirven para perder peso
La evidencia científica de la que disponemos nos dice que, tal y como cabía esperar, las dietas detox no sirven para desintoxicar. El término detox resulta atractivo, pero no es una alegación saludable reconocida por ninguna autoridad sanitaria. Es decir, no significa nada. Cualquier alimento puede llamarse detox porque sí, sin demostrar nada en absoluto. Turrón detox. Cerveza detox. Zumo detox. Es lo mismo.
La evidencia científica también nos dice que las dietas detox tampoco sirven para perder peso, sino todo lo contrario. Tras varios días alimentándonos solo a base de zumos sí experimentaremos una notable pérdida de peso. Ocurriría lo mismo si nos alimentamos solo de rodajas de piña, de vasos de agua o de nada. La restricción calórica severa tiene como consecuencia directa la pérdida de peso. No obstante, esta pérdida de peso es ficticia, se debe en mayor medida a pérdida de líquidos y no a pérdida de grasa, y además se recupera rápidamente. Esto tiene una razón biológica de ser. Ante la escasez de alimento, nuestro metabolismo entra en “modo ahorro de energía” como mecanismo de supervivencia. Esto quiere decir que las dietas hipocalóricas “ralentizan” nuestro metabolismo, de modo que en cuanto dejamos de hacer dieta (o casi ayuno) se producirá el conocido “efecto rebote”: un aumento de peso repentino en cuanto abandonamos la dieta, superior al peso de inicio.
Estos cambios metabólicos inducidos por esta clase de dietas también tienen implicaciones sobre el apetito: se ha demostrado que por cada kilo perdido tras este tipo de dieta la ingesta media aumenta en 100 kcal diarias.
-
Las dietas detox tienen riesgos
Pasarte varios días alimentándote de un solo tipo de alimento o consumiendo solo zumos es contraproducente. El contra más evidente es que pasaremos hambre y eso tiene implicaciones en el estado de ánimo: irritabilidad, falta de concentración, apatía… En cierto modo estas dietas depurativas son una especie de penitencia a la que nos sometemos voluntariamente para resarcirnos del pecado del exceso. Por eso las implicaciones psicológicas de este tipo de conductas no son menores.
Otros de los riesgos son la malnutrición y la desnutrición. Falta de nutrientes, sobre todo proteínas y vitaminas, y desequilibrios electrolíticos. Además, algunas de estas dietas implican el consumo de laxantes y diuréticos -aunque sean de origen natural- que enfatizan el problema. Estas dietas no nos sanan, sino que nos enferman.
Tampoco es una buena elección consumir frutas y verduras en forma de zumo. En cuanto exprimimos la fruta, los azúcares que antes eran saludables se convierten en azúcares libres. Las principales autoridades sanitarias, entre ellas la Organización Mundial de la Salud, alertan sobre el consumo de zumos y su relación con la obesidad y la diabetes tipo II. Al hacer zumo estamos dejando la fibra en la licuadora o el exprimidor, por lo que metabolizamos los azúcares de diferente manera, tanto es así que se convierten en azúcares insalubres. Además, hay que tener en cuenta que no es lo mismo masticar que beber, no solo con respecto al hábito, sino con respecto a la saciedad. Nos sacia más comernos una manzana que bebernos un zumo hecho con una manzana, un plátano y una naranja.
Otro riesgo tiene que ver con la errónea idea de la compensación. Del mismo modo que practicar deporte no compensa el consumo de azúcares libres, pasarnos varios días a zumos no compensa las comidas copiosas o el consumo de alcohol. Lo que provocan estas conductas compensatorias es la perpetuación de malos hábitos alimenticios y favorecen la aparición de trastornos en la conducta alimentaria, como el trastorno de purga, la bulimia nerviosa o la preocupación patológica por la comida sana (comúnmente llamada ortorexia).
-
Zumos detox y estatus
Cuando vimos a las protagonistas de Sexo en Nueva York beber café en vasos de cartón, los demás no íbamos a ser menos. Podemos hacer pasar por glamurosa cualquier absurdez. Incluso en los países en los que hay una especie de culto alrededor del buen café, las cadenas que ofrecen litronas aguadas a precio de oro han triunfado.
Eva Longoria, Jessica Alba, Elsa Pataky, Jennifer Garner, Miley Cyrus, Blake Lively o Anne Hathaway han dejado de pasearse con cafés y ahora lo hacen con un brebaje verde llamado green juice a base de verduras de moda como el kale (o col rizada). Dile al mundo que tu intención es cuidarte, aunque lo hagas sin ningún tipo de conocimiento. Y luego publica un selfie con tu zumo detox en las redes sociales, porque de eso se trata, de definir quién eres. Hasta un zumo verde puede definirte incluso mejor que tus zapatos.
También hay influencers que solo se alimentan de zumos. Se les llama juice cleanses (algo así como limpiezas con zumo). Es decir, las dietas detox de siempre pero con un nombre más cool. Estrellas como Salma Hayek o Gwyneth Paltrow han amadrinado diferentes marcas de cleanses. En programa de cinco días de zumos favorito de Paltrow puede costar hasta 400 dólares, y el menú de Hayek ronda los 58 dólares diarios.
No se trata de cuidar la salud sino de cuidar tu estatus. Y bueno, en general los zumos son más baratos que las joyas.
-
Conclusiones
Si eres consciente de que durante las últimas vacaciones te has alimentado mal, ya tienes algo ganado. Aprovecha para dejar de hacerlo mal y comenzar a hacerlo bien. Si no sabes cómo, o si crees que podrías padecer obesidad o algún trastorno en la conducta alimentaria, como comer por ansiedad, es el momento de que visites a un especialista en nutrición. Pasarte una o dos semanas siguiendo una dieta detox no solucionará el problema, sino que lo empeorará. De hecho, cualquier dieta que sea imposible mantener a lo largo del tiempo, no es una buena dieta.
Los zumos detox y las dietas milagro ni sirven para desintoxicarnos ni sirven para perder peso, sino lo contrario. En el mejor de los casos solo perderemos tiempo y dinero, en el peor además perderemos salud.
Referencias:
Detox diets for toxin elimination and weight management: a critical review of the evidence. Klein AV, Kiat H. J Hum Nutr Diet. 2015 Dec;28(6):675-86. doi: 10.1111/jhn.12286
Maintenance of Lost Weight and Long-Term Management of Obesity. Hall KD, Kahan S. Med Clin North Am. 2018 Jan;102(1):183-197. doi: 10.1016/j.mcna.2017.08.012
How strongly does appetite counter weight loss? Quantification of the feedback control of human energy intake. David Polidori, Arjun Sanghvi, Randy Seeley, and Kevin D. Hall. Obesity (Silver Spring). 2016 Nov; 24(11): 2289–2295. doi: 10.1002/oby.21653
Potential relationship between juice cleanse diets and eating disorders. A qualitative pilot study. Bóna E, Forgács A, Túry F. Orv Hetil. 2018 Jul;159(28):1153-1157. doi: 10.1556/650.2018.31090
Sobre la autora: Déborah García Bello es química y divulgadora científica
El artículo Las dietas detox ni desintoxican ni adelgazan se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El azúcar oculto en los alimentos
- De la sal «sin gluten» al champú «sin gluten»: no solo marketing
- Con los edulcorantes artificiales (casi) todo son ventajas
Asociación evolutiva entre la higuera común y las avispas
La relación simbiótica entre la higuera común, Ficus carica, y la avispa Blastophaga psenes se remonta a unos ochenta millos de años atrás.
La avispa hembra sale del higo en el que ha nacido, cargada de polen y huevos fecundados, en busca de otra higuera de la misma especie. Tras encontrarla entra en el interior del higo, deja en él el polen y los huevos que lleva adheridos. Los huevos crecen y nacen las avispas. Los machos fecundan a las hembras y tras hacerlo mueren. Las hembras, sin embargo, vuelan en busca de una nueva higuera donde se repite de nuevo el proceso.

Una vez que las avispas dejan el higo, éste crece y cambia de tonalidad, se vuelve rojizo y se llena de azúcar. Así se transforma en el dulce alimento que conocemos.
———————————-
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
Autora: Paulina Peña Matamala, alumna del Postgrado de Ilustración Científica de la UPV/EHU – curso 2017/18
Artículo original: Árbol sagrado, árbol maldito. Juan Ignacio Pérez Iglesias, Cuaderno de Cultura Científica, 22 de octubre de 2017.
———————————-
El artículo Asociación evolutiva entre la higuera común y las avispas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:Las dos culturas de las matemáticas: construir teorías o resolver problemas
El matemático británico William Timothy Gowers, fellow del Trinity College, de la Universidad de Cambridge, y Medalla Fields en 1998, en su magnífico ensayo Las dos culturas de las matemáticas, divide a las personas que hacen matemáticas, principalmente dentro del ámbito de la matemática pura, en dos grupos, aquellas “cuyo objetivo central es resolver problemas” y las que están “más interesadas en construir y comprender teorías”.
William T. Gowers utiliza la expresión “las dos culturas de las matemáticas”, en referencia a la famosa conferencia del físico y escritor Charles Percy Snow, de 1959, sobre la brecha existente entre las ciencias y las humanidades, la falta de comunicación entre ambas y la asimetría entre los conocimientos considerados como parte de la cultura (sobre las dos culturas escribí una pequeña reflexión al respecto para la revista CIC-Network, La cultura científica o la misteriosa identidad del señor Gauss). Para este matemático, que estaría entre los que resuelven problemas, existe una situación similar dentro de las matemáticas, entre estas “otras dos culturas”, estas dos formas de entender la ciencia de Pitágoras.
Por si algún matemático o matemática no está segura de a cuál de los dos grupos pertenece, Gowers plantea un sencillo test. Se trata de leer las dos afirmaciones que aparecen más abajo, A y B, y en función de con cuál de las dos se esté de acuerdo se pertenecerá a una u otra clase.
A. La finalidad de resolver problemas es comprender mejor las matemáticas.
B. La finalidad de comprender las matemáticas es estar más capacitados para resolver problemas.

Muchas personas del ámbito de las matemáticas, al leer ambas afirmaciones, es probable que piensen que en ambas hay parte de razón, pero también es cierto, como comenta Gowers, que la mayoría se decantarán más por una u otra forma de ver las matemáticas.
Como ejemplo de matemático de la clase de los que construyen teorías, Gowers cita al británico Sir Michael F. Atiyah, uno de los grandes geómetras de la segunda mitad del siglo XX, en abril (de 2019) cumplirá 90 años, que entre otros muchos premios recibió la Medalla Fields en 1966 y el Premio Abel en 2004, y que además, desarrolló su investigación matemática en instituciones como las universidades británicas de Cambridge y Oxford, o el Instituto de Estudios Avanzados de Princeton (EE.UU.).

Para ilustrar su afirmación utiliza la siguiente reflexión del propio Sir Michael Atiyah, aparecida en una entrevista en Mathematical Intelligencer en 1984, sobre su forma de trabajar en matemáticas.
“Hay quien piensa: “Quiero resolver este problema”, y se sienta y dice: “¿Cómo resuelvo este problema?” Yo no. Simplemente me muevo entre las aguas matemáticas, pienso en cosas, soy curioso, me intereso, hablo con la gente, doy vueltas a las ideas; entonces surge algo y yo lo sigo. O quizá veo algo que conecta con algo que conozco, intento ponerlo junto y se desarrolla. Prácticamente nunca he empezado con una idea de lo que voy a hacer o de dónde me va a llevar. Me interesan las matemáticas; hablo, aprendo, discuto y simplemente surgen preguntas interesantes. Nunca he empezado con un fin particular, excepto el de entender las matemáticas.”
Es esta “cultura”, la de personas que están más interesadas en construir y comprender teorías, la que predomina en la actualidad. Una visión de las matemáticas que muestra esta ciencia como un gran árbol cuyas fuertes ramas son las grandes teorías matemáticas, con sus estructuras y sus teoremas.
Por ejemplo, si fijamos nuestra atención en el listado de las personas que han sido galardonadas con el Premio Abel de las Matemáticas (que a día de hoy podríamos considerar como el “Premio Nobel” de esta ciencia y que se concede desde 2003) encontramos muchos constructores de teorías, entre otros, el matemático francés Jean-Pierre Serre (que recibió el Premio Abel en 2003 “por jugar un papel esencial en dar forma a la visión moderna de muchas partes de las matemáticas, incluyendo la topología, la geometría algebraica y la teoría de números”), el matemático ruso Mijail Gromov (en 2009 “por sus revolucionarias contribuciones a la geometría”), o el matemático británico Andrew Wiles (en 2016 “por su asombrosa demostración del último teorema de Fermat por medio de la conjetura de modularidad para curvas elípticas semiestables, abriendo una nueva era en la teoría de números”).
Dentro del grupo de quienes resuelven problemas, W. T. Gowers cita a la más famosa de todas las personas de esta categoría, al matemático húngaro Paul Erdös (1913-1996), a quien el matemático germano-estadounidense Ernst Straus (1922-1983) describió, con motivo de la celebración de su 70 cumpleaños, como “el príncipe de los que resuelven problemas y el monarca absoluto de quienes saben proponer problemas”.
Los problemas que plantea Erdös, o en los que suele fijar su atención, suelen tener un enunciado relativamente sencillo o fáciles de entender, pero muy difíciles de resolver, y además, muchos de ellos acaban teniendo una gran profundidad matemática y científica. Por citar un ejemplo que aparece en una entrada del Cuaderno de Cultura Científica, cierto problema sobre cómo colorear las aristas de un grafo con dos colores, acabó dando lugar a una importante teoría de la combinatoria, como es la teoría de Ramsey. Véase la entrada El juego del Sim, o alguno de los dos libros Del ajedrez a los grafos, la seriedad matemática de los juegos o How to count, an introduction to combinatorics.

Dentro de los galardonados con el Premio Abel también nos encontramos algún matemático que comparte la filosofía de Paul Erdös, como el húngaro Endré Szemerédi (en 2012 “por sus contribuciones fundamentales a la matemática discreta y a las ciencias de la computación teóricas”), aunque no son mayoría.
De hecho, las personas “cuyo objetivo central es resolver problemas” suelen ser criticadas por el colectivo defensor de la construcción de teorías porque en opinión de estas, las primeras simplemente se dedican a resolver o jugar con divertimentos matemáticos. En palabras de Atiyah “se dedican simplemente a mariposear. Si se les pregunta que persiguen con ello, cuál es la relevancia, con qué se relaciona, veremos que no lo saben”.
Sin embargo, sin pretender profundizar sobre la cuestión, una de las grandes aportaciones de las personas que se dedican a resolver problemas, independientemente de si estos llevan o no a profundos resultados, teoremas o estructuras, como realmente ocurre en muchas ocasiones, podríamos decir que es transversal. Por ejemplo, esta forma de trabajar en matemáticas aporta unas capacidades, unas metodologías, unas técnicas, unos tipos de argumentos y unas maneras de afrontar la resolución de problemas o la demostración de resultados matemáticos, de teoremas, que una vez desarrolladas se convierten en potentes herramientas en diferentes ramas de las matemáticas. Por mencionar algún ejemplo, a riesgo de parecer un poco simple, pensemos en el principio del palomar (una pequeña introducción sobre el mismo se puede encontrar en las entradas El principio del palomar, una potente herramienta matemática, parte 1 y parte 2) o en los grafos, de una gran sencillez, pero profundas herramientas en muchos campos de las matemáticas y de la ciencia.
Pero volviendo al brillante matemático Paul Erdös y su relación con la resolución de problemas, Ernst Straus, otro de los pertenecientes a la cultura de la resolución de problemas y que durante un tiempo fue ayudante del físico germano-estadounidense Albert Einstein (1879-1955), explicó que el motivo por el cual Einstein eligió la física sobre las matemáticas era que las matemáticas estaban repletas de cuestiones tan bellas y atractivas que uno podía tirar a la basura su vida trabajando en los problemas “equivocados” y no en las cuestiones realmente importantes, “centrales”, las cuales eran más fácil de identificar dentro de la física.

Sin embargo, la filosofía de Paul Erdös no coincidía con la de Albert Einstein, como explica Straus.
“Erdös ha violado sistemáticamente y de forma exitosa cada una de las prescripciones de Einstein. Ha sucumbido a la seducción de todos los problemas que ha encontrado –y una gran cantidad de ellos han sucumbido a su vez a él. Esto mismo me demuestra que en la búsqueda de la verdad hay lugar para Don Juanes como Erdös y Sir Galahads como Einstein”
Es decir, las matemáticas necesitan personas de las dos culturas dedicadas a la investigación matemática, las que construyen teorías y las que resuelven problemas.

Este es solamente un pequeño apunte sobre el interesante debate existente sobre las dos culturas de las matemáticas y recomiendo a quienes puedan estar interesadas en el mismo, que vayan a la fuente original, al artículo de W. T. Gowers, ya sea en su versión original en inglés o su traducción al castellano en la GACETA de la RSME.
Terminamos con una cita del excéntrico matemático, del que hablaremos en una próxima entrada del Cuaderno de Cultura Científica, Paul Erdös.
“¿Por que los números son hermosos? Es como preguntar por qué la novena sinfonía de Beethoven es hermosa. Si no ves por qué lo es, nadie puede decírtelo. Yo sé que los números son hermosos. Si ellos no lo son, nada lo es.”
Bibliografía
1.- William Timothy Gowers, Las dos culturas de las matemáticas, La GACETA de la RSME, vol. 7.2, pag. 371–386, 2004 (publicado originalmente como The Two Cultures of Mathematics, en Mathematics: Frontiers and Perspectives, V.I. Arnold, M. Atiyah, P. Lax y B. Mazur (eds.), AMS, 1999).
2.- Raúl Ibáñez, La cultura científica o la misteriosa identidad del señor Gauss, CIC-Network, n. 8, pag. 14-17, 2010. (versión online en el Cuaderno de Cultura Científica)
3.- Exposición Faces of Mathematics, por Marc Atkins (fotografía y producción de video) y Nick Gilbert (coordinador del proyecto). Faces of Mathematics ha sido organizada por el Engineering and Physical Sciences Research Council (Gran Bretaña).
4.- El Premio Abel de las Matemáticas
5.- Joel Spencer, Erdös Magic, perteneciente al libro The Mathematics of Paul Erdös I, editado por R. L. Graham, J. Nesetril, S. Butler, Sringer, 2013.
6.- Raúl Ibáñez, Albert Einstein-primera parte, sección Publicidad y Matemáticas de la web DivulgaMAT, 2012.
7.- Béla Bollobás, Paul Erdös: Life and Work, perteneciente al libro The Mathematics of Paul Erdös I, editado por R. L. Graham, J. Nesetril, S. Butler, Sringer, 2013.
8.- Raúl Ibáñez, Del ajedrez a los grafos, la seriedad matemática de los juegos, colección El mundo es matemático, RBA, 2015.
9.- R. B. J. T. Allenby, Alan Slomson, How to count, an introduction to combinatorics, CRC Press, 2011.
Sobre el autor: Raúl Ibáñez es profesor del Departamento de Matemáticas de la UPV/EHU y colaborador de la Cátedra de Cultura Científica
El artículo Las dos culturas de las matemáticas: construir teorías o resolver problemas se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un kilogramo de novelas y matemáticas
- El rostro humano de las matemáticas
- Artistas que miran a las matemáticas
La evolución de los perros
Los humanos hemos participado en la historia evolutiva de los perros desde el origen de la relación entre ambos. Hemos favorecido, por un proceso de domesticación, la aparición de las distintas razas de perro. Hoy en día, la mayoría de nuestras mascotas son perros de raza. Sin embargo, estos perros solo representan el 15% de todos los canes que existen en la actualidad, el 85% restante son chuchos o perros callejeros.
En general, se cree que los chuchos proceden del cruce entre perros de raza, pero no es así. Estos perros han surgido de la evolución por selección natural de los primeros cánidos que se asociaron a los humanos.

La selección natural ha dotado a los chuchos de facilidades para acercarse a nosotros, estos privilegios les permiten aprovecharse de recursos que, directa o indirectamente, ponemos a su disposición. Es decir, la mayoría de los perros han seguido su propio camino evolutivo y se han adaptado para convivir con nosotros y obtener beneficios.
———————————-
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
Autora: Raquel Morales Aguilera, alumna del Postgrado de Ilustración Científica de la UPV/EHU – curso 2017/18
Artículo original: Domesticados. Juan Ignacio Pérez Iglesias, Cuaderno de Cultura Científica, 16 de abril de 2017.
———————————-
El artículo La evolución de los perros se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Domesticados
- Los primeros pasos de la evolución darwiniana y sesgos cognitivos y evolución (Día de Darwin 2018)
- Un ornitisquio emplumado
Patrones de difracción
Podemos comprender todos los patrones de difracción de ondas si tenemos en cuenta tanto el principio de Huygens como el principio de superposición. Por ejemplo, consideramos una apertura más ancha que una longitud de onda. En este caso, el patrón de ondas difractadas no contiene líneas nodales a menos que el ancho de la rendija sea aproximadamente la longitud de onda, λ (Figura 1).

La figura 2 nos ayudará a entender por qué aparecen las líneas nodales. Debe haber puntos como P que estén más alejados del lado A de la apertura que del lado B; es decir, debe haber puntos P para los ques la distancia AP difiere de la distancia BP exactamente λ. Para esos puntos, AP y OP difieren en una media longitud de onda , λ/2. Por el principio de Huygens, podemos considerar los puntos A y O como fuentes puntuales en fase de ondas circulares. Pero como AP y OP difieren en λ/2, las dos ondas llegarán a P completamente fuera de fase. Entonces, de acuerdo con el principio de superposición, las ondas de A y O se cancelarán en el punto P.

Este argumento también es válido para el par de puntos que consiste en el primer punto a la derecha de A y el primero a la derecha de O. De hecho, sigue siendo cierto cierto para cada par de puntos emparejados de forma equivalente, a lo largo de toda la apertura. Las ondas que se originan en cada uno de estos pares de puntos se cancelan en el punto P. Por lo tanto, P es un punto nodal, ubicado en una línea nodal. Por otro lado, si el ancho de la apertura es menor que λ, entonces no puede haber un punto nodal. Esto es obvio, ya que ningún punto puede estar más alejado una distancia λ de un lado de la apertura que del otro. Las aperturas de anchos menores a λ se comportan casi como fuentes puntuales. Cuanto más estrechas son, más se parece su comportamiento al de las fuentes puntuales.
Podemos calcular la longitud de onda de una onda a partir del patrón de interferencia donde se superponen las ondas difractadas. Esta es una de las razones principales por las que la interferencia de las ondas difractadas es tan interesante. Al localizar las líneas nodales formadas más allá de un conjunto de aperturas, podemos calcular λ incluso para ondas que no podemos ver. Esta es una manera muy importante de identificar si una serie de rayos desconocidos consisten en eso que solemos llamar partículas o en lo que solemos llamar ondas.

Para el caso la interferencia de dos aperturas, cuanto mayor es la longitud de onda en comparación con la distancia entre las rendijas, más se extiende el patrón de interferencia. Es decir, a medida que λ aumenta o d disminuye, las líneas nodales y antinodales forman ángulos cada vez más grandes con la dirección normal a la línea que forman las rendijas. De manera similar, para la difracción de una sola apertura, el patrón se propaga cuando aumenta la relación de la longitud de onda con el ancho de la apertura. En general, la difracción de longitudes de onda más largas se detecta más fácilmente. Por eso, cuando escuchas a una banda tocar a la vuelta de una esquina, escuchas los bombos y las tubas mejor que los piccolos y las cornetas, incluso si en realidad están tocando con la misma intensidad.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Patrones de difracción se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Difracción de ondas: el principio de Huygens
- Patrón de interferencia en ondas periódicas
- Cuando las ondas se encuentran
El ciclo de una infección
La borreliosis de Lyme es la enfermedad que más se contagia a través de una picadura. La enfermedad se transmite mediante garrapatas infectadas con la bacteria Borrelia. Al menos 365.000 personas en el hemisferio norte se contagian al año y puede ser bastante grave.
La garrapata causante es la conocida popularmente como garrapata dura (la garrapata Ixodidae) cuyo ciclo de vida suele ser de tres años. La infección se desarrolla en la garrapata desde su estadio larvario hasta la edad adulta.

Se ha comprobado que el aumento de temperaturas y la abundancia de alimento, sobre todo bellotas, incide directamente en la población de roedores, principales huéspedes de la ninfa de la garrapata. Las ninfas adquieren las bacterias cuando se alimentan de pequeños roedores ya infectados con la enfermedad y, posteriormente, transmitirán esa enfermedad a los nuevos huéspedes que tenga, incluido los humanos.
———————————-
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
Autora: Ruth Escobar Arranz, alumna del Postgrado de Ilustración Científica de la UPV/EHU – curso 2017/18
Artículo original: La ecología de una enfermedad. Juan Ignacio Pérez Iglesias, Cuaderno de Cultura Científica, 9 de julio de 2017.
———————————-
El artículo El ciclo de una infección se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Un ornitisquio emplumado
- La podredumbre noble: Cuando una infección mejora un vino
- La contribución global de los ríos intermitentes al ciclo del carbono
¿2018 un mal año? Los ha habido mucho peores

Bueno, pues ya está. El 31 de diciembre damos por terminado un año más, el 2018 desde que fechamos el nacimiento de Jesús (más o menos) y el que corresponda en la vida de cada uno. ¿Qué tal le ha ido a usted este 2018? ¿Bien? ¡Me alegro! ¿No tan bien? Vaya, lo lamento. Si este es su caso, le traigo dos buenas noticias: la primera, ya la hemos dicho, es que el año ha terminado.
La segunda es que se mire como se mire, 2018 no ha sido un mal año, o no tan malo, en cualquier caso, si lo comparamos con otros años pasados que sí fueron malos. Pero malos, malos, malos.
536, el peor año de la Historia
Por ejemplo el año 536, que según el historiador medieval Michael McCormick merece recibir el título del peor año de la Historia. Casi nada. Ese año una enorme erupción volcánica en Islandia (a la que siguieron otras en 1540 y 1547) cubrió Europa de nubes de ceniza que impidieron que la luz del Sol llegase y calentase el suelo. Nevó en lugares donde no solía hacerlo, como China, las cosechas no salieron adelante, hubo hambrunas y enfermedades que diezmaron a la población del antiguo imperio romano.
Para rematar la faena, en 541 surgió y comenzó a extenderse una plaga de peste bubónica que en 2 años había terminado con entre el 35 y el 50% de la población del Mediterráneo, acelerando la caída del imperio romano del Este.
Si bien los años de oscuridad estaban recogidos en documentos de la época, la causa fue descubierta por el equipo de McCormick este 2018 analizando los contaminantes atrapados en el hielo de Groenlandia y la Antártida hace siglos.
¿Verdad que su 2018 de pronto no parece tan malo?
1520: la viruela llega a América
Pero espere, que le traigo algún otro ejemplo. Podemos, por ejemplo, poner la vista en 1520 y la década a la que ese año dio comienzo. Ese año, cuando la conquista de las Américas por parte de los Europeos se encuentra en pleno frenesí, el virus de la viruela cruza el Atlántico y llega por primera vez a México. A causa de su aislamiento en los siglos anteriores, las poblaciones americanas no habían sufrido enfermedades provenientes del ganado europeo. Esta fue su primera vez.

Se calcula que costó la vida de entre 3 y 3,5 millones de indígenas y que fue un factor clave en la conquista española de muchas ciudades, como Tenochtitlan. Según algunos historiadores, sin la viruela y otras enfermedades víricas que llevaron los españoles, algunos hechos históricos habrían ocurrido de otra manera, como por ejemplo la victoria de Francisco Pizarro con 120 soldados sobre los 80,000 soldados indígenas de Atahualpa.
Así que dependiendo de dónde le hubiese tocado vivir, 1520 también habría sido un año terrible.
1914 y 1918: el hombre (y los virus) contra el hombre
Tenemos otros ejemplos más cercanos. Por ejemplo 1914. Ese año dio comienzo la Primera Guerra Mundial y aunque Europa ya había tenido previamente generosas dosis de guerras y matanzas, nada nos había preparado para algo así: las grandes potencias del mundo alineadas en dos bandos enfrentados con la tecnología más puntera del momento a su alcance pensada para matar cuanto más, mejor. Lo que hasta entonces era un continente próspero quedó convertido en ruinas y regado de muertos. Y entre ellos, los jóvenes de todos los países involucrados, que ya no pudieron volver para convertirse en ciudadanos productivos.

La Primera Guerra Mundial no fue solo un conflicto destructivo, también sentó las bases de lo que vendría después: el auge de los fascismos en Europa (¿le suena esto de algo?), la Segunda Guerra Mundial, la Guerra Fría, las guerras de Vietnam y Corea… Vivir en 1914 no solo supuso las penurias de la guerra, también la frustración de ver que el ser humano rara vez aprende de sus errores.
Claro que si 1914 fue un mal año para vivir, probablemente 1918 lo fue aun más. No solo Europa había vivido ya 4 años de guerra total con millones de muertos entre las ruinas, es que en ese momento otro enemigo, mucho más pequeño pero imparable puso pie en escena: una pandemia de influenza o gripe española causó ese año entre 40 y 100 millones de muertos. A diferencia de otros brotes de gripe que afectan principalmente a niños ancianos, está atacó también a jóvenes y adultos saludables, así como a perros y gatos.

No está claro el origen del brote, aunque sí se sabe que no fue España a pesar de su nombre. La pandemia se llamó gripe española ya que fue la prensa de nuestro país la que más atención le dedicó, ya que España no participaba en la guerra y no se censuraron las noticias al respecto.

No está claro qué hizo de esta versión de la gripe un asesino tan eficaz. Algunos historiadores sugieren, a partir de los documentos científicos de la época, que no es que este tipo de gripe fuese más infeccioso que otros, sino que las condiciones en las que se encontraba la población europea en aquel momento (malnutrición, hacinamiento, falta de higiene…) se lo puso mucho más fácil.
1945: siempre podemos hacernos más daño
No podemos dejar de mencionar en esta lista 1945. Todos los años que van de 1939 a 1945 fueron duros para ser vividos especialmente en los países que participaron directamente en la Segunda Guerra Mundial, y más aun para los que vivían bajo regímenes totalitarios en los que las diferencias era perseguidas y aniquiladas. Miles de personas asesinadas, heridas y traumatizadas, masas de gente desplazada y cicatrices físicas y mentales que tardarían décadas en desaparecer, si es que algunas cicatrices pueden desaparecer alguna vez. Si citamos en concreto 1945 es porque la explosión de dos bombas nucleares en Japón son el símbolo perfecto de todo el empeño que podemos llegar a poner en hacernos un poquito más de daño.

1582: a este año le faltan 10 días
Si a usted estas catástrofes humanas y naturales, acostumbrado a leerlas en libros de historia y a verlas en las películas, ya no le conmueven quizá pueda convencerle de que mucho peor que el 2018 fue el año 1582. Ese año se instauró el calendario gregoriano, según el cual al 4 de octubre le siguió el 15 de octubre, haciendo desaparecer 10 días para compensar el desfase del anterior calendario juliano. Con lo que nos cuesta a algunos el cambio de hora, imagínese el caos de acostarse un día y levantarse 10 días después.
En resumen, queridos lectores, mucho ánimo con el año que acaba de empezar y muchos deseos de que lo que venga sea, siempre, mejor que lo que se va. Y si no, piense que podría ser peor. Al menos, no vivimos en el año 536.
Referencias:
Why 536 was ‘the worst year to be alive’ – Science
Epidemia de viruela en Tenochtitlán – Wikipedia
Perspectiva histórica de la viruela en México: aparición, eliminación y riesgo de reaparición por bioterrorismo – Gaceta médica de México
“La viruela y el sarampión fueron perfectos aliados en el éxito de conquista española de América” – Agencia Sinc
The Deadly Virus. The Influenza Epidemic of 1918 – The National Archives
An Epidemic of Pneumococcus Bronchopneumonia – The Journal of Infectious Disease
1582 – Wikipedia
Pragmática de los diez días – Biblioteca digital mundial
Sobre la autora: Rocío Pérez Benavente (@galatea128) es periodista
El artículo ¿2018 un mal año? Los ha habido mucho peores se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Mucho más hermoso
- Los padres mienten a sus hijos… mucho y en todo el mundo
- #Naukas15 Somos mucho más que dos
Un ornitisquio emplumado
El Kulindadromeus zabaikalicus, un pequeño herbívoro del Jurásico, fue descubierto en 2014 en Kulinda, Rusia, por el paleontólogo Pascal Godefroit y su equipo.

Hasta ahora se ha sabido de la existencia de dinosaurios emplumados en saurisquios, el grupo de dinosaurios del que descienden las aves. Sin embargo, este pequeño dinosaurio pertenece al segundo gran grupo en el que se clasifican los dinosaurios: los ornitisquios. Además, se trata de un ser primario dentro de este grupo, por lo que el plumaje podría ser algo que el resto de los dinosaurios del grupo podrían haber heredado.
———————————-
“Ilustrando ciencia” es uno de los proyectos integrados dentro de la asignatura Comunicación Científica del Postgrado de Ilustración Científica de la Universidad del País Vasco. Tomando como referencia un artículo de divulgación, los ilustradores confeccionan una nueva versión con un eje central, la ilustración.
Autor: Álvaro Gutiérrez Martín, alumno del Postgrado de Ilustración Científica de la UPV/EHU – curso 2017/18
Artículo original: Las plumas estaban en los dinosaurios desde el principio. @paleofrank, Cuaderno de Cultura Científica, 25 de julio de 2014.
———————————-
El artículo Un ornitisquio emplumado se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El duelo de los pecaríes
- El mecanismo de la vida, mejor vídeo de divulgación joven “On zientzia”
- Las aves de Prometeo
Tamaño del encéfalo e inteligencia

El encéfalo de los primates aumentó de tamaño en el curso de la evolución; también el de los homininos, grupo al que pertenece nuestra especie. Homo habilis, que vivió hace unos 2 millones de años, tenía un encéfalo de unos 600 ml de volumen, no mucho mayor que el de los chimpancés –nuestros parientes más próximos-, que es inferior a 500 ml. El de Homo erectus, que vivió entre hace 1,8 millones y 600.000 años, era de unos 900 ml, y el nuestro tiene alrededor de 1350 ml.
Con el transcurso del tiempo, a la vez que aumentó el tamaño encefálico, también varió la importancia relativa de unas áreas por comparación con las de otras. Experimentaron una expansión mayor las que integran y procesan información procedente del resto de áreas encefálicas, o sea, las que desempeñan funciones consideradas de mayor nivel. Y lo mismo ocurre si se compara el encéfalo de adultos y el de niños de corta edad. Al crecer no se desarrollan de la misma forma unas regiones y otras, sino que son las que realizan tareas de integración superior las que, al crecer, experimentan un mayor crecimiento relativo.
Pero resulta que puede haber importantes diferencias en el tamaño encefálico de personas de la misma edad, y las diferencias no se limitan solamente al tamaño; también difieren en la proporción relativa de unas áreas y otras. En otras palabras, ciertas regiones son proporcionalmente mayores en los encéfalos más grandes. Y se da la circunstancia, por otro lado, de que son las mismas que crecen relativamente más a lo largo del desarrollo de las personas y que más han aumentado de tamaño en el curso de la evolución. Se trata, en concreto, de redes corticales de los lóbulos parietal y frontal, así como de ciertas regiones subcorticales relacionadas. Son áreas que integran información de múltiples procedencias, áreas “que piensan”. A cambio, en los encéfalos de mayor tamaño ocupan un menor espacio relativo regiones implicadas en la elaboración de emociones -como el sistema límbico-, así como las dedicadas a procesar información sensorial –áreas sensoriales- y a generar los impulsos que provocan la ejecución de movimientos, las áreas motoras.
Además de lo anterior, las áreas que experimentan un mayor crecimiento relativo conforme progresa el desarrollo encefálico y que ocupan un mayor espacio en los cerebros más grandes son regiones especialmente dotadas estructural y funcionalmente para establecer conexiones de largo alcance con otras zonas de la corteza cerebral. Y son áreas que experimentan, además, un mayor gasto energético, puesto que están formadas por células más activas que el resto, lo que conlleva más consumo de oxígeno, mayor gasto de glucosa, y mayor actividad metabólica.
Ahora bien, ¿significa esto que las personas con encéfalos más grandes son más inteligentes? No parece ser el caso, no al menos en una medida significativa. Es cierto que si se considera la historia de nuestro linaje cabe suponer que los seres humanos actuales somos más inteligentes que los pertenecientes a especies anteriores a la nuestra, como H. habilis o H. erectus. Pero cuando se analiza la variación del cociente de inteligencia (IQ) con el tamaño encefálico se observa que éste solo explica un 5% de la variación de IQ.
Es posible que las diferencias de tamaño puedan, en determinadas comparaciones, estar asociadas con ligeras diferencias en alguna capacidad intelectiva en concreto. Pero no olvidemos que aunque hombres y mujeres tenemos tamaños encefálicos algo diferentes, no hay diferencias de inteligencia entre los dos sexos. O que los neandertales tenían un encéfalo aún mayor que el nuestro y, muy probablemente, no eran más inteligentes.
Fuente: P. K. Reardon et al., Science doi:10.1126/science.aar2578 (2018)
——————-
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
————————
Una versión anterior de este artículo fue publicada en el diario Deia el 21 de octubre de 2018.
El artículo Tamaño del encéfalo e inteligencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Sistemas nerviosos: evolución del tamaño de las regiones encefálicas
- El gran encéfalo humano es un “encéfalo social”
- El nivel socioeconómico familiar influye en el desarrollo del encéfalo infantil
El error como ocasión de aprendizaje
Las pruebas de la educación es un evento que en su tercera edición tuvo lugar por primera vez en Donostia-San Sebastián, el pasado 9 de noviembre, en el Centro Carlos Santamaría de la UPV/EHU, organizado por el Consejo Escolar de Euskadi, con la colaboración de la Cátedra de Cultura Científica de la UPV/EHU.
Este evento tiene el objetivo de abordar distintos temas educativos desde la evidencia científica. Para ello, reúne a personas del ámbito educativo para que expliquen y debatan acerca de las pruebas (o su ausencia) que sustentan las afirmaciones, propuestas y prácticas educativas que están en boga o, en su caso, las pruebas que sustentan otras posibles prácticas. La dirección del evento corrió a cargo de la doctora en Psicología Marta Ferrero.
La jornada concluye con la charla de Gregorio Luri, maestro y licenciado en pedagogía, con numerosos premios y publicaciones en su haber, que nos habla del el error como ocasión para el aprendizaje: “En un diálogo educativo el que gana es el que pierde, porque es el único que ha aprendido algo”; “El niño suele dar una respuesta correcta a la pregunta que se hace él mismo. La diferencia entre esta pregunta y la que le ha dirigido el profesor marca con precisión la carga cognitiva de su aprendizaje”.
Edición realizada por César Tomé López
El artículo El error como ocasión de aprendizaje se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El papel de la memoria en el proceso de enseñanza-aprendizaje
- Del mito al hecho: hemisferios, gimnasia cerebral y estilos de aprendizaje
- Cómo destruir un buen sistema de educación. El ejemplo sueco
Puntos cuánticos encapsulados con fluorescencia de meses

La nanotecnología y la nanociencia son disciplinas en las que se diseñan, fabrican y estudian estructuras moleculares de diminutas dimensiones con propiedades físicas y químicas especiales. Uno de los tipos de partículas que se estudian en estas disciplinas son los puntos cuánticos, unos nanocristales semiconductores de un tamaño que oscila entre los 2 nm y los 10 nm, que tienen excelentes propiedades ópticas y electrónicas. Entre ellas, cabe destacar que emiten luz de colores diferentes dependiendo de su tamaño, es decir, “varía la longitud de onda de emisión variando únicamente el tamaño del nanocristal, sin modificar su composición”, explica Alicia de San Luis, investigadora de Polymat y autora del trabajo.
Sus propiedades hacen que los puntos cuánticos puedan ser útiles para diversas aplicaciones como la detección en biomedicina, la producción de placas solares y LEDs, el uso como sensores de compuestos orgánicos volátiles (COVs) y como fotosensibilizadores. Sin embargo, ”también hay que tener en cuenta sus inconvenientes: son difíciles de manipular, por su pequeño tamaño, y son tóxicos, dado que los puntos cuánticos de mayor calidad están mayoritariamente compuestos por metales pesados”, apunta la investigadora.
Para sacar el mayor partido a las excelentes propiedades ópticas de estas nanopartículas, pero sin olvidar los problemas de toxicidad que presentan, en el instituto de investigación Polymat de la UPV/EHU han conseguido encapsular eficientemente puntos cuánticos comerciales en partículas de polímero dispersas en agua, manteniendo la fluorescencia de los puntos cuánticos durante largos periodos de tiempo. “El principal objetivo era encapsular los puntos cuánticos en partículas de polímero un poco más grandes, para protegerlos y facilitar, a su vez, su manipulación sin que perdieran sus propiedades”, apunta la autora de la investigación. “Hemos puesto en marcha un método sencillo con buenos resultados: partículas de polímero con fluorescencias estables durante un mínimo de 9 meses”, añade.
Una vez alcanzado el primer objetivo, “el siguiente paso fue lograr la encapsulación de combinaciones de puntos cuánticos de diferentes tamaños para crear un código de barras que se pudiera utilizar para la detección múltiple en sistemas biológicos”, explica. Así, han conseguido controlar la fluorescencia de estas combinaciones, ya que utilizando puntos cuánticos que emiten a diferentes longitudes de onda, “se pueden detectar sus señales simultáneamente, sin que se superpongan una a otra”. Esto puede servir para detección biomédica, ya que existe la posibilidad de modificar la superficie de la partícula de polímero con diferentes analitos (o diferentes anticuerpos o antígenos). En opinión de la investigadora, “se trata de una técnica de detección bastante potente, sencilla y rápida. La mayoría de los laboratorios cuentan con un fluorímetro, y, además, no habría que esperar días para procesar la muestra”.
Por otra parte, también han investigado la combinación de los puntos cuánticos con otras nanopartículas inorgánicas (CeO2), coencapsulándolas en las mismas partículas de polímero. En este estudio han podido observar “un incremento de la emisión de fluorescencia durante el tiempo de exposición a la luz solar”.
Por último, en la investigación se ha abordado la posible aplicabilidad de diversas combinaciones sintetizadas como sensores ópticos y eléctricos de compuestos orgánicos volátiles (COVs), mediante la producción de nanofibras y su posterior contacto con COVs. Esta parte de la investigación, está llevándose a cabo en colaboración con Tecnalia. “En este caso trabajamos tanto en fluorescencia como en medidas de conductividad de las nanofibras”, explica Alicia de San Luis.
Referencia:
A. de San Luis et al (2018) Toward the minimization of fluorescence loss in hybrid cross-linked core-shell PS/QD/PMMA nanoparticles: Effect of the shell thickness Chemical Engineering Journal doi: 10.1016/j.cej.2016.12.048
Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa
El artículo Puntos cuánticos encapsulados con fluorescencia de meses se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Nanocompuestos poliméricos funcionalizados con puntos cuánticos
- Simuladores cuánticos de sistemas complejos
- Cómo de cuánticos son los fenómenos cuánticos en los seres vivos
El legado de Fisher y la crisis de la ciencia

En 2005, John Ioannidis, prestigioso profesor de medicina de la Universidad de Stanford, publicó uno de los artículos más citados e influyentes de la literatura científica: Why Most Published Research Findings are False (Por qué la mayor parte de los resultados de investigación son falsos). Posteriormente, se acuñó el término “crisis de replicabilidad” para referirse al hecho de que un gran número de estudios científicos (especialmente en ciencias sociales y medicina) no han podido ser replicados, algo fundamental en ciencia. Este problema ha saltado a la opinión pública en diversas ocasiones, como cuando en mayo de 2016 una encuesta de la revista Nature desvelaba que el 90% de los científicos reconocen que esta crisis existe.
Muchos de los análisis apuntan, como Ioannidis, a que gran parte del problema reside en que muchos resultados de investigación no siguen un buen estándar de evidencia científica, lo cual se deriva de un mal uso o una mala interpretación de los métodos estadísticos utilizados. En particular, los contrastes de hipótesis y los p-valores están en el ojo del huracán. Estas herramientas son ampliamente usadas en campos como psicología y medicina en los que las preguntas típicas de investigación tienen una estructura similar, del tipo ¿es B diferente a A? Por ejemplo, obtengo un nuevo fármaco y quiero saber si tiene un efecto más allá del placebo, o quiero comprobar si un nuevo tratamiento es superior a otro. Las metodologías son asimismo similares, y consisten en medir el efecto en un grupo de sujetos con respecto a otro grupo de control. Y ahí es donde entra en juego la estadística.
Pero ¿qué es un contraste de hipótesis y un p-valor? ¿Qué es la significancia estadística y qué es eso de “p
La ciencia es un ejercicio de inferencia inductiva, esto es, hacemos observaciones y tratamos de inferir reglas generales que las expliquen. Esto es lo contrario a lo que hacen las matemáticas, que a partir de un conjunto de reglas generales deducen resultados particulares, y estos son ciertos por definición si la deducción es formalmente correcta. La inducción es más compleja y requiere la acumulación de evidencia, por lo que nunca podemos estar completamente seguros en sentido estricto. En los años 20 del siglo pasado, Ronald Fisher abogó por evitar el problema filosófico de la inducción al promover métodos que cambian la pregunta de investigación para convertir la inducción en deducción. En lugar de responder ¿es B diferente a A?, suponemos que A y B son iguales, deducimos lo que esperaríamos observar y lo comparamos con lo observado.
Esta aproximación frecuentista se materializa en lo que se conoce como contrastes de hipótesis. En ellos se define una hipótesis nula (A y B son iguales) contraria a lo que se pretende demostrar (A y B son distintos) y se calcula un estadístico llamado p-valor que representa la probabilidad de obtener los datos observados (u otros más raros). En el uso común, si la probabilidad es suficientemente baja (típicamente menor que 0.05, el 5%, lo cual es un límite completamente arbitrario), se dice que hay significancia estadística y se acepta que las observaciones son suficientemente raras dada la hipótesis nula. Por tanto, se rechaza la hipótesis nula y se abraza la hipótesis alternativa en su lugar.
El p-valor es probablemente uno de los conceptos más escurridizos y malinterpretados de la estadística. A menudo lleva a falsos descubrimientos y afirmaciones directamente incorrectas en las que continuamente caen incluso los expertos, hasta tal punto que la American Statistical Association se vio en la obligación en 2016 de publicar una declaración oficial con una guía sobre qué son (y qué no son) los p-valores, sobre qué se puede afirmar con ellos y para qué se pueden utilizar. Algunas voces van más allá y afirman que si incluso aquellos versados en estadística a menudo utilizan mal y malinterpretan un método, significa que este es defectuoso en esencia.
Desde luego, la maniobra popularizada por Fisher es brillante, y los métodos son sencillos y metodológicamente atractivos, pero, aparte de las dificultades de interpretación,se esconden graves problemas que cuestionan su aplicación indiscriminada. Fundamentalmente, como hemos dicho, la pregunta de investigación cambia, por lo que no se responde a lo que verdaderamente nos interesa, i.e., ¿es B diferente a A, dados estos datos? En su lugar, se responde a cómo de raros son los datos si damos por bueno que A=B: ¡hemos dado la vuelta al objetivo!
En definitiva, el contraste de hipótesis se basa en recolectar evidencia indirecta en contra de una hipótesis nula, no evidencia directa a favor de la hipótesis alternativa, que es lo que se pretende comprobar realmente. Según los usos comunes, cuando no se encuentra evidencia en contra de la hipótesis nula (p-valor alto), esta se suele aceptar, lo cual es incorrecto: el mismo Fisher argumentaba que un p-valor alto significa que no aprendemos nada de las observaciones, y que por tanto solo significa que se requieren más datos. Por otro lado, cuando sí se encuentra evidencia en contra de la hipótesis nula (p-valor bajo), no solo se rechaza esta, sino que se acepta la hipótesis alternativa, lo que es todavía más problemático.
Como ya puso de manifiesto Jacob Cohen en su clásico artículo The earth is round (p , allá por 1994, esta especie de prueba por contradicción funciona bajo las reglas de la lógica en las que las afirmaciones son ciertas o falsas, sin ningún tipo de incertidumbre: “si la hipótesis nula es correcta, estos datos no serían posibles; tenemos estos datos, luego la hipótesis es falsa”. Pero la naturaleza probabilística de los fenómenos que estudia la ciencia añade una incertidumbre que vuelve el razonamiento inválido: “si la hipótesis nula es correcta, estos datos serían poco probables; tenemos estos datos, luego la hipótesis es poco probable”. Antes que Cohen, Pollard y Richardson desmontaron esta aparente transitividad de la improbabilidad con un simple ejemplo concreto: “si una persona es americana, probablemente no es miembro del Congreso; esta persona es miembro del Congreso, luego no es americana”.
El famoso artículo de Ioannidis de 2005 causó una gran impresión en la opinión pública, pero no debería sorprender a ningún científico. Como hemos visto, ya en 1994 Cohen se quejaba amargamente de que, tras cuatro décadas de duras críticas, el método de Fisher y ese criterio sagrado de “p decía del mágico y arbitrario valor “p
Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute
El artículo El legado de Fisher y la crisis de la ciencia se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- La ciencia y la duda
- “Ciencia y crisis, ¿examen de conciencia?” por Luis A. Martínez Sáez
- Ciencia: es complicado
El tobogán parabólico de Garching
A finales del mes de noviembre, mi hermana Inés me mandaba unas fotos de la revista Ling que estaba ojeando en el avión de vuelta a Barcelona. Quería mostrarme un reportaje que hablaba del Parabelrutsche, un singular tobogán “muy matemático” situado en el interior de uno de los edificios de la Universidad Técnica de Múnich. Me pareció una propuesta muy ingeniosa, así que me puse a buscar información.

El proyecto Kunst am Bau –Arte dentro del edificio– es una iniciativa que deben seguir los edificios públicos en Alemania. Las leyes alemanas obligan al utilizar un porcentaje de los costos de edificación de las construcciones estatales –normalmente un 1%– al arte en cualquiera de sus formas. Es parte de su responsabilidad en la promoción de la cultura arquitectónica.
Teniendo en cuenta esta norma, en 2002, la Universidad Técnica de Múnich eligió las Facultades de Matemáticas e Informática del campus de Garching para combinar ciencia y arte. El equipo formado por los artistas Johannes Brunner y Raimund Ritz ganó el concurso de ideas lanzado por la universidad con un proyecto insólito para un centro universitario: dos enormes toboganes uniendo el tercer piso y la planta baja –separados por trece metros de altura– del edificio.
Pero estos toboganes no poseen una forma estándar. En realidad, la propuesta artística tiene muchas ideas matemáticas subyacentes. Esos toboganes son en realidad las dos partes de una formidable parábola hueca colocada en el vestíbulo del edificio, dos inmensos tubos curvos de acero que permiten evitar las escaleras y ahorrar tiempo.
Parece que la primera idea de Brunner y Ritz fue la de construir una escalera parabólica; pero la pendiente era demasiado brusca, incumpliendo las normas de seguridad. Así que no podía realizarse. Optaron entonces por un tobogán parabólico: dos piezas de aluminio, dos conductos huecos y curvos de un metro de diámetro, formando la parábola de ecuación z = y = x² h/d², donde xyz representa las coordenadas cartesianas del espacio, h es la altura desde la planta baja hasta la entrada en los toboganes (en el tercer piso) y d es la distancia (en horizontal) entre la entrada al tobogán en el tercer piso y la salida en la planta baja (ver la imagen 2).

Para descender por los toboganes, unas alfombrillas deslizantes están a la disposición de toda aquella persona que decida utilizar este “transporte rápido”. Usarlas evita rozaduras y el descenso es eficaz, ya que el interior de los tubos está revestido por un material antideslizante.
El Parabelrutsche forma ya parte del paisaje de este edificio universitario. Parece que su utilización es impecable: un cartel anuncia en las entradas de los toboganes que su mal uso puede llevar a la retirada de la matrícula o a la expulsión de la universidad.
Además de ser un remplazo a las “aburridas” escaleras, esta magnífica escultura “suaviza” el “frío” aspecto del interior del edificio. He leído que, antes de colocar el Parabelrutsche, algunas y algunos estudiantes comparaban la apariencia del edificio alojando las Facultades de Matemáticas e Informática con la de la cárcel de Alcatraz. La verdad, sí que la recuerda un poco…
Referencias:
Daniel Martorell, ‘Mates’ al servicio del arte, Revista Ling, noviembre 2018, págs. 38-41
Parabelrutsche am Neubau Mathematik/Informatik der TUM auf dem Campus Garching, TUM
Imágenes del tobogán parabólico, TUM
Parabelrutsche, TUMcampus, Das Magazin der Technischen Universität München 2, 2018, pág. 63
Projekte am Bau, 2002 Parabel, Brunner/Ritz
Parabelrutsche: Is This the Coolest Slide in the World? , Kuriositas, 8 junio 2013
Sobre la autora: Marta Macho Stadler es profesora de Topología en el Departamento de Matemáticas de la UPV/EHU, y colaboradora asidua en ZTFNews, el blog de la Facultad de Ciencia y Tecnología de esta universidad.
El artículo El tobogán parabólico de Garching se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El investigador fantasma: ¿P=NP?
- Patatas ‘perfectas’ con el método ‘Edge Hotel School’
- Zorn, su lema y el axioma de elección
Difracción de ondas: el principio de Huygens
A diferencia de de las pelotas de tenis, las balas, y otras trozos de materia en movimiento, las ondas sí puden rodear una esquina. Por ejemplo, podemos oír una voz que viene desde el otro lado de una colina, a pesar de que no haya nada que refleje el sonido hacia nosotros. Estamos tan acostumbrados al hecho de que las ondas de sonido sean capaces de hacer esto que ni nos damos cuenta. Esta propagación de la energía de las ondas a lo que cabría esperar que fuese una región inaccesible se llama difracción. De nuevo, las ondas en el agua ilustran este comportamiento con mayor claridad. Seguro que ahora ves esta fotografía de otra manera.

La fotografía muestra uno de los casos en los que se produce difracción; en ella vemos que las ondas en el agua se difractan a medida que pasan a través de una apertura estrecha ranura en una barrera. Añadamos que el tamaño de la apertura es menos de una longitud de onda de ancho. Observemos que la ranura es menor que una longitud de onda de ancho. La onda aparece en la laguna y se propaga en todas direcciones. Si observamos el patrón de la onda difractada vemos que es básicamente el mismo patrón que establecería una fuente puntual de vibración si se coloca donde está la ranura apertura. Quizás lo veamos mejor con la ayuda de un esquema:

Veamos ahora la posibilidad de que, en vez de una, tengamos dos aperturas estechas. De lo que hemos visto para una apertura cabe esperar lo que se observa realmente, esto es, que el patrón resultante que forman las ondas difractadas en ambas rendijas es el mismo que el producido por dos fuentes puntuales que vibran en fase. Así lo ilustró Thomas Young en su comunicación a la Royal Society al respecto en 1803:

De forma general, si hay n aperturas estrechas (menores que una longitud de onda) en una barrera, el patrón de ondas observado después de la barrera se corresponde con el que habría en el medio si hubiese n fuentes puntuales en fase, cada una en la posición de una apertura.
Pero, ¿por qué ocurre esto?
Podemos describir estos y todos los demás efectos de la difracción a partir de una característica básica de las ondas. Esta característica se conoce como principio de Huygens, ya que la expresó por primera vez Christiaan Huygens en 1678. Necesitamos para entenderlo un concepto previo, el de frente de onda. Para una onda en el agua, un frente de onda es una línea imaginaria a lo largo de la superficie del agua, con cada punto a lo largo de esta línea exactamente en la misma fase de la vibración; es decir, todos los puntos de la línea están en fase. Dicho de otra manera y en general: un frente de onda es el lugar geométrico de todos los puntos adyacentes en los que la perturbación está en fase. Así, las líneas de cresta son frentes de onda, ya que todos los puntos de la superficie del agua a lo largo de una línea de cresta están en fase. Cada uno acaba de alcanzar su máximo desplazamiento hacia arriba, está momentáneamente en reposo, y comenzará a bajar un instante más tarde.
Como las ondas de sonido no se propagan sobre una superficie sino en tres dimensiones, sus frentes de onda no forman líneas sino superficies. Los frentes de onda para las ondas de sonido emitidas desde un fuentes muy pequeñas son superficies casi esféricas, de a misma forma que los frentes de onda de las ondulaciones en el agua a partir de una fuente muy pequeña son círculos.
El principio de Huygens, puede expresarse así: cada punto de un frente de onda puede considerarse que se comporta como una fuente puntual de ondas generadas en la dirección de propagación de la onda original y con su misma velocidad y frecuencia. Traduciendo libremente a Huygens:
Existe la consideración adicional en la emanación de estas ondas de que cada partícula de materia en la que una onda se propaga, no debe comunicar su movimiento solamente a la siguiente partícula que está en la línea recta trazada desde la [fuente], sino que también impartirá algo de él necesariamente a todas las otras que la tocan y que se oponen ellas mismas a su movimiento. Así ocurre que alrededor de cada partícula se crea una onda de la que la partícula es el centro.
Seguiremos explorando las consecuencias del principio de Huygens en próximas entregas.
Como ilustración musical, aquí vemos como Leonora confunde, olvidando el principio de Huygens, las ondas difractadas emitidas originalmente por Manrico (fuera de escena) como si hubiesen sido emitidas por el Conde de Luna (en escena), con trágicas consecuencias.
Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance
El artículo Difracción de ondas: el principio de Huygens se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- Cuando las ondas se encuentran
- Patrón de interferencia en pulsos de ondas
- Patrón de interferencia en ondas periódicas
La motilidad estomacal
El estómago tiene una capacidad enorme para albergar cantidades muy diferentes de alimento, para lo cual puede modificar su volumen con facilidad. Algunos casos, como el de muchas sanguijuelas, son extraordinarios: en media hora pueden ingerir una cantidad de sangre equivalente a nueve veces su masa corporal. Eso sí, necesitan días para digerirla y puede que no vuelvan a comer hasta pasados unos meses, años o nunca.

Sin llegar a esos extremos, el estómago humano también tiene una capacidad muy variable: su volumen interno va de los 50 ml, cuando está vacío, a albergar 1 l tras la comida. Multiplica por 20 su volumen al comer. Su interior contiene pliegues profundos que, al comer, se van haciendo cada vez más pequeños conforme el estómago se va relajando. A este fenómeno se le denomina relajación receptiva y permite albergar un volumen importante de comida sin que la presión se eleve demasiado en el interior del estómago.
Un conjunto de células intersticiales de Cajal (células marcapasos, aunque no son contráctiles) ubicadas en la parte superior del estómago generan un ritmo eléctrico básico (a razón de tres ondas por min, aproximadamente) que se extiende hacia abajo hasta alcanzar el esfínter pilórico. Dependiendo del grado de excitabilidad de la musculatura lisa del estómago, esa actividad eléctrica puede dar lugar a potenciales de acción que, a su vez, generarían las correspondientes ondas de contracción peristáltica al mismo ritmo que el básico de las células marcapasos.
La musculatura lisa es relativamente fina en la zona superior (fundus) y media (cuerpo), pero es gruesa en la zona inferior (antro), por lo que las contracciones son leves en el fundus y fuertes en el antro. El fundus no suele contener más que algo de gas, el cuerpo cumple la función de almacenamiento, y la mezcla se produce en el antro. De hecho, son las contracciones fuertes de su musculatura lisa las que posibilitan que se mezclen las secreciones gástricas con la comida, formándose así el quimo. Ello ocurre cuando el esfínter pilórico se encuentra cerrado. En ese caso, al no poder pasar al duodeno, el quimo retrocede produciéndose así la mezcla. Ahora bien, si el píloro no está del todo cerrado, deja pasar parte del quimo hacia duodeno y de ahí al intestino delgado. Normalmente solo deja pasar agua y partículas de menos de 2 mm de diámetro. Tanto la intensidad de las contracciones estomacales como el estado del esfínter pilórico están sometidos a la influencia de diferentes factores tanto dependientes del estómago como del duodeno. Veremos a continuación esos factores y cómo contribuyen a regular la función digestiva.

Los dos principales factores que influyen en la fuerza de la contracción peristáltica son la cantidad y fluidez del quimo. Cuanto mayor es el volumen de quimo, más rápidamente es evacuado al duodeno. De hecho, la motilidad gástrica aumenta en respuesta a la distensión estomacal, y lo hace a través de varios mecanismos: efecto directo del grado de estiramiento del músculo liso sobre sí mismo, intervención del plexo nervioso intrínseco, del nervio vago (división parasimpática) y de la gastrina (hormona estomacal). Ahora bien, si el duodeno no se encuentra en condiciones de recibir más quimo, éste no pasará aunque el estómago esté muy lleno. Las condiciones que provocan una inhibición del vaciado gástrico son las siguientes:
- El principal factor que impide el paso del quimo al duodeno es la presencia de grasa. Dado que es el sustrato más difícil de digerir, es el último en ser digerido y absorbido. Por esa razón, hasta que toda la grasa no ha sido procesada, no pasa más quimo; su presencia en el duodeno inhibe la motilidad gástrica.
- Por otro lado, la gran acidez del quimo recién salido del estómago se neutraliza en el duodeno con bicarbonato sódico procedente del páncreas. De otro modo, el ácido irritaría el epitelio duodenal. Por esa razón, la acidez duodenal inhibe el vaciado del contenido gástrico hasta que tal acidez es neutralizada.
- Otro factor inhibidor es la hipertonicidad del contenido duodenal. La digestión de proteínas y carbohidratos da lugar a la aparición de numerosas moléculas de aminoácidos (también dipéptidos) y de azúcares simples; tales moléculas ejercen un efecto osmótico muy superior al de las macromoléculas de las que proceden. Por ello, si no son absorbidas con la suficiente celeridad, su acumulación en la luz duodenal provocaría flujo osmótico de agua desde el medio interno, lo que debe ser evitado porque puede entrañar riesgo de deshidratación. Por esa razón, también una concentración osmótica elevada en el duodeno inhibe el vaciado estomacal.
- La distensión duodenal también incide sobre el vaciado del estómago. Un exceso de distensión, por sí mismo, indica que el duodeno se encuentra lleno, por lo que ha de vaciarse antes de poder aceptar más quimo del estómago. Y lo mismo ocurre cuando esa distensión obedece al flujo de osmótico de agua al que nos hemos referido antes.
Los mecanismos a través de los que se produce la regulación son nerviosos y hormonales, y en ambos casos actúan inhibiendo la evacuación gástrica. En la respuesta nerviosa pueden participar los plexos nerviosos intrínsecos (reflejo corto) y los nervios del sistema autónomo (reflejos largos). Se les denomina de forma conjunta reflejo enterogástrico. Y la respuesta hormonal se produce mediante la liberación desde la mucosa duodenal de varias hormonas denominadas genéricamente enterogastronas. Llegan al estómago a través de la sangre. Se han identificado tres enterogastronas: secretina, colecistoquinina (CCK) y péptido inhibidor gástrico (o péptido insulinotrófico dependiente de glucosa).
Por último, hay factores independientes de la digestión en sí que pueden afectar a la motilidad gástrica. Bajo condiciones de estrés, por ejemplo, la motilidad del estómago se puede ver modificada porque su musculatura lisa se encuentra bajo el control de los nervios del sistema autónomo. Se trata de efectos que varían de unos animales a otros por lo que no hay un modelo común de respuesta, aunque en general el miedo tiende a reducir la motilidad y las emociones agresivas a aumentarla. El dolor intenso también reduce la motilidad, aunque su efecto no se limita al estómago ya que lo hace en todo el sistema digestivo.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
El artículo La motilidad estomacal se ha escrito en Cuaderno de Cultura Científica.
Entradas relacionadas:- El estómago (u órgano equivalente)
- Faringe, esófago y buche
- Peces capaces de respirar en aire y anfibios