jueves, 8 de diciembre de 2016

Los límites de la manipulación genética

La semana pasada tuve el placer de participar en el debate final del ciclo 'Futur (s)' de este año, organizado por la Obra Social la Caixa y el Ateneu Barcelonès. El tema era qué límites hay que poner a las manipulaciones genéticas, uno de los avances biológicos que pronto se podrían aplicar a humanos, y compartía escenario con Núria Terribas, directora de la Fundació Grífols, y el periodista Lluís Reales. No ocurre muy a menudo que uno tenga la oportunidad de discutir sobre bioética y, en este sentido, se ha de agradecer a los organizadores de los esfuerzos que hacen año tras año para divulgar y difundir el conocimiento científico, sobre todo en relación a cómo las nuevas tecnologías cambiarán la sociedad. También hay que felicitar a la Fundació Grifols por su misión de promover el diálogo entre especialistas para definir los parámetros éticos que deben regir la biomedicina del futuro y, sobre todo, la tarea de acercar las conclusiones al gran público.

El debate era especialmente relevante debido a las recientes novedades en las herramientas de edición genética, concretamente el procedimiento conocido como CRISPR / CAS9, que ha hecho que el concepto de jugar con nuestro genoma pase del reino de la ciencia ficción a ser una posibilidad inminente. De hecho, hace unos días se anunció que en China se había usado el CRISPR por primera vez de forma terapéutica. En un ensayo clínico, un enfermo de cáncer de pulmón recibió una inyección de sus células de la sangre, que previamente se le habían extraído y modificado vía CRISPR para hacerlas más 'fuertes'. Es una forma de inmunoterapia, otra palabra de moda, con tratamientos que buscan reactivar el sistema inmune para ayudarle a vencer enfermedades, en este caso, a destruir células malignas.

Si ya alteramos genes para curar, no tardaremos mucho en poder hacerlo también por 'mejorar', es decir, para hacer cambios en personas teóricamente sanas. Aquí es donde está el peligro de cruzar una posible frontera moral, sobre todo si pensamos que esto se podría aplicar a los embriones para acabar teniendo hijos 'a la carta'. Una de las ideas comentadas fue que los padres tal vez no debemos presuponer este tipo de derecho sobre los hijos, el de poder tomar decisiones que les afectarán toda la vida. Por otra parte, es una prerrogativa que en cierto modo ya tenemos, si pensamos que elegimos para ellos la escuela, el barrio o los hábitos alimenticios, que tendrán un impacto imborrable en su futuro. Cuando la manipulación genética sea una opción real, quizá las diferencias no serán tan claras.

Si ya alteramos genes para curar, no tardaremos en poder hacerlo para 'mejorar'
Aprovechando un público motivado, hicimos un pequeño experimento para ver hasta dónde estaríamos dispuestos a llegar para beneficiar nuestros descendientes usando la manipulación genética. El auditorio no tuvo ningún problema para votar a favor de permitir que los hijos fueran inmunes al cáncer o incluso un poco más inteligentes. Cuando preguntamos si los harían más altos empezaron las dudas, aunque es una característica física que puede dar evidente ventaja social a una persona.

La línea roja la pusimos en modificaciones del aspecto para disimular las raíces étnicas (aclarar el color de piel, corregir una nariz ganchuda...), incluso con el supuesto de vivir en una sociedad xenófoba en la que tendrían problemas para tener los mejores puestos de trabajo. Consideramos que no se debería permitir borrar la identidad cultural, para prevenir corrientes eugénicas o acabar homogeneizando la especie.

Es interesante que este fuera el límite marcado por una muestra de un centenar largo de personas, en su mayoría caucásicas y de clase media, reunidas en un barrio acomodado de una ciudad grande en un país desarrollado. Si hubiéramos hecho la pregunta a los emigrantes europeos que, a inicios del siglo XX, trasladaban su familia a EEUU huyendo de la miseria, la respuesta seguro que habría sido diferente. La pista es que muchos cambiaron sus apellidos precisamente para disimular sus orígenes judíos o de Europa del Este.

Definir los límites éticos de la ciencia es una tarea mucho más compleja de lo que puede parecer. Los principios morales de cada país, sociedad, época e individuo hacen que la cuestión tenga algunos blancos y negros pero, sobre todo, muchos grises. Costará definir una norma universal que todas las culturas puedan suscribir, y mientras esto no ocurra, los riesgos de cometer errores es muy elevado. Por eso es tan importante que el debate no se detenga.

Publicado en El Periódico, 3/12/16. Versió en català.

viernes, 2 de diciembre de 2016

Enemigos microscópicos

Este domingo, una vez más, tendréis la oportunidad de conseguir uno de mis libros con El País. Se trata de Enemigos microscópicos, una actualización condensada de mi anterior libro sobre el tema, Las grandes plagas modernas, ya descatalogado. Si os interesan las enfermedades infecciosas, no olvidéis reservarlo en vuestro quiosco preferido.


lunes, 14 de noviembre de 2016

El Paciente Cero y el problema de la imagen

Gaëtan Dugas era un auxiliar de vuelo canadiense que murió en 1984, víctima del sida. Durante mucho tiempo se le ha considerado el responsable de la introducción del VIH en América, tras haberse contagiado en un viaje a África, y de esparcirlo por los círculos homosexuales de Estados Unidos debido a su gran promiscuidad. Es el concepto del Paciente Cero, que ha servido para determinar el inicio exacto de una de las crisis sanitarias más importantes que ha sufrido América del Norte. La demonización de Dugas es principalmente mérito del periodista Randy Shilts, autor de 'And the Band Played On', uno de los primeros libros sobre el tema, que tuvo un impacto mediático considerable. A partir de su publicación, se popularizó la idea de que la culpa de la epidemia americana era de una sola persona y Dugas pasó a ser uno de los hombres más odiados del momento.

Esta acusación había sido posible gracias a un estudio científico, publicado el mismo año que moría Dugas, que lo ponía en el centro de los primeros grupos de homosexuales afectados. Pero, con el tiempo, análisis genéticos de mayor alcance han permitido descubrir que el VIH ya había cruzado el Atlántico mucho antes de que Dugas entrase en contacto con él (concretamente, a través de Haití, a finales de la década de los 60). La teoría de que un paciente había sido el origen de todo empezaba a resquebrajarse. Hace unos días, un artículo en 'Nature' le ha dado el golpe de gracia. Analizando muestras de sangre guardadas durante décadas, los investigadores han concluido que Dugas se infectó cuando el virus ya hacía tiempo que corría por el país, proveniente del Caribe, y que la puerta de entrada de la epidemia había sido Nueva York a principios los 70.

Una serie de casualidades habían sido clave en la transformación de Dugas en el malo de la película. Para empezar, no había sido más promiscuo que otros individuos, pero sí había conseguido recordar más nombres de sus parejas ocasionales, y eso había hecho que su red de conexiones se pudiera dibujar de una manera especialmente clara en el estudio inicial. Además, en ese artículo se le designó con una O porque era el único paciente estudiado fuera (outside) de Estados Unidos. Un error de lectura transformó la letra en un número (ambos se llaman igual en inglés) y esto dio accidentalmente una etiqueta fácil de recordar. El efecto secundario fue que el cero lo asociaba automáticamente con el inicio. Solo fue necesario que Shilts magnificase este impacto para crear un mito que ha durado 30 años. Era un concepto atractivo, una simplificación que ayudaba a entender una epidemia difícil de explicar al público, con un componente moral bastante espinoso, y por eso se acabó implantando con tanta facilidad.

Una conjunción de malas interpretaciones convirtieron a la víctima Gaëtan Dugas en verdugo
El injusto caso del Paciente Cero evidencia una consecuencia directa de cómo se organizan las sociedades modernas, que se ha agravado aún más a medida que desaparecían las fronteras culturales y surgía un tejido global común: la realidad es la imagen, no el contenido. Lo que llamamos real es, en la práctica, una construcción humana que interpreta una serie de hechos, y es esa representación la que verdaderamente tiene peso social, no los propios hechos. No importa que Dugas fuera realmente una víctima: una conjunción de malas interpretaciones de los datos lo convirtieron en el verdugo.

Lo dijo Plutarco hace casi dos mil años, y hoy en día su máxima es más vigente que nunca: a la mujer del césar no le basta con ser honesta, además debe parecerlo. Incluso podríamos añadir que, mientras lo parezca, ni siquiera es necesario que lo sea. Tiene lógica: la apariencia de cualquier hecho es la interfaz que nos permite asimilarlo, por eso tiene tanta relevancia. Para que algo pase a la historia no basta con que cree un impacto de cualquier tipo, sino que se ha de construir una imagen que facilite su interpretación. Un ejemplo podría ser que el éxito de cualquier creación artística está muy ligado a la biografía del artista responsable, hasta el punto de que eso distorsiona la calidad intrínseca de la pieza. También funciona cuando buscamos una cabeza de turco, como en el caso de Dugas.

A menudo, un individuo implicado puede contribuir de alguna manera a este proceso de traducción sesgada de la realidad. Otras veces, el trabajo lo hacen los demás, sin opción a réplica, como ocurrió con el Paciente Cero. Dugas ha tenido suerte de que alguien ha encontrado finalmente la verdad escondida, pero la historia debe estar llena de muchas otras personas que han terminado representando algo que no eran, y eso ocultará para siempre lo que realmente había detrás.

[Publicado en El Periódico, 5/11/16. Versió en català.] 

lunes, 24 de octubre de 2016

Un Nobel caníbal

Esta ha sido la semana de los Nobel científicos (aún quedan por dar el de Literatura y el de Economía), el único momento del año que los investigadores somos tratados como famosos suficientemente dignos para salir en la portada de los periódicos. Esta semana también es el momento más temido por muchos periodistas, que deben esforzarse en hablar de temas terriblemente complejos solo con la ayuda de las muletas que proporcionan las notas de prensa de la Fundación Nobel.

Hay veces que cuesta bastante (explicar el de Física de este año es todo un reto, por ejemplo) y otros que el impacto es fácil de ver incluso por quienes no son expertos. El último Nobel de Fisiología o Medicina es de este último grupo. Se lo ha llevado una persona en solitario, algo poco habitual en esta categoría (solo ha pasado dos veces desde principios de siglo). Se trata del microbiólogo japonés Yoshinori Ohsumi y el motivo ha sido el descubrimiento de la autofagia. Por pocas nociones de griego que tengamos, es fácil deducir que este fenómeno está relacionado con el hecho de "comerse a uno mismo". ¿Qué significa este tipo de canibalismo cuando hablamos de células? Cuando hay una situación estresante, por ejemplo una falta importante de alimentos, cualquier célula reacciona defendiéndose de la mejor manera que sabe. Una opción puede ser 'reciclar' parte de su contenido para transformarlo en los nutrientes que tanto necesita y poder sobrevivir así hasta que las condiciones mejoren. Esto se llama autofagia. Naturalmente, la autofagia llevada al extremo puede llegar a destruir la célula afectada, lo que también puede ser conveniente para el organismo en ciertos momentos. Es pues un arma de doble filo que resulta muy útil para la supervivencia. Por ello, pese a que Ohsumi la estudió en las levaduras, se ha visto que casi todas las células tienen programados estos mecanismos. Si la autofagia falla pueden acelerarse problemas como el cáncer o la enfermedad de Párkinson.

Este año, algunos esperaban que uno de los Nobel fuese a descubridores del CRISPR-CAS9, un método simple y efectivo de manipulación genética que se ha popularizado y que puede llegar a trastocar muchos aspectos de la sociedad (ya ha revolucionado cómo trabajamos en los laboratorios). Curiosamente, este sistema se desarrolló a partir del descubrimiento original que hizo en los años 90 Francis Mojica, un microbiólogo de la Universidad de Alicante. Las esperanzas de que un español ganara un Nobel científico (que sería solo el segundo de la historia, tras Ramón y Cajal) de momento se han desvanecido, pero nunca se sabe qué pasará más adelante.

A diferencia de los Nobel de Literatura y, sobre todo, el de la Paz, que suelen ir rodeados de polémica y regirse por criterios no siempre objetivos, los premios científicos rara vez se pueden discutir. Suelen otorgarse a investigadores que han hecho méritos para recibir la medalla y que están esperando pacientemente. No he visto que nadie haya dudado de la calidad de un descubrimiento premiado en estas disciplinas. Como mucho, a veces ha habido quejas porque alguien que había contribuido de forma importante a un descubrimiento se había quedado fuera de la terna, pero esto es un problema inevitable cuando se han de escoger un máximo de tres nombres de un trabajo siempre multidisciplinar y multitudinario.

Pero, como en todos los premios, los jurados son humanos y susceptibles a presiones de todo tipo, sutiles o no. De la misma forma que los lobis de las productoras son esenciales para decantar los Oscar, también en el caso de los Nobel no es lo mismo si detrás de un científico hay universidades como la de Cambridge o la de Harvard (siempre presentes en el top 10 de todas las clasificaciones y, naturalmente, rellenas de Nobel), la universidad de Tokio (donde Ohsumi hizo sus principales descubrimientos y que está en el top 40) o las de un país, como el nuestro, que no tiene ninguna entre las 150 mejores.

En todo caso, el premio de Medicina de este año nos demuestra que un científico que estudia un organismo tan humilde como la levadura puede llegar a hacer descubrimientos capaces de cambiar la manera que tenemos de entender el mundo. Y, además, es la prueba de que los mecanismos básicos de la vida son transversales y compartidos entre todos los seres vivos de este planeta, desde los microbios más minúsculos los organismos tan complejos como los humanos. Es motivo suficiente para quedarse con la boca abierta un buen rato.

[Publicado en El Periódico, 9/10/16. Versió en català.] 

viernes, 14 de octubre de 2016

¿Es posible frenar el envejecimiento?

Este domingo podréis conseguir mi último libro, ¿Es posible frenar el envejecimiento? La ciencia en las fronteras de la vida comprando El País. Forma parte de una colección dedicada a la ciencia, que no se vende en librerías, y es un resumen de todo lo que sabemos actualmente sobre el envejecimiento, desde sus causas a las posibles intervenciones que podrían frenarlo. 

¿Podremos vivir más de 150 años? ¿Es posible la inmortalidad? Todo esto y mucho más, este domingo con El País, ¡no os olvidéis!


lunes, 10 de octubre de 2016

¿Dónde está la ciencia?

La temporada ha comenzado con polémica. El anuncio, hace unos días, de la nueva parrilla de la radio pública catalana disparó muchas quejas sobre la falta de espacios propios para la cultura, que se ha visto relegada a pequeñas secciones mientras los deportes ganaban horas de antena. En medio de este alboroto, el científico Miquel Tuson proponía en Twitter el 'hashtag #OnÉsLaCiència' para recordar que hay otra área menos representada en los medios. La comparación no es arbitraria: hace más de un siglo, Santiago Ramón y Cajal ya decía que la cultura y la ciencia son los dos pilares que nos diferencian de los animales. Y si la primera con frecuencia está marginada en muchos aspectos de la vida pública, la segunda es prácticamente invisible. Es increíble que no nos demos cuenta de que tan grave es una cosa como la otra.

Quizá estoy mal acostumbrado, porque aquí donde vivo, en el Reino Unido, las cosas son muy diferentes. La BBC tiene un canal de televisión dedicado exclusivamente a la cultura, en el que muy a menudo hay programas sobre ciencia (los británicos han entendido que es parte esencial de la educación). Pero no solo eso: la BBC-1 emite documentales excelentes a las horas de mayor audiencia (la semana pasada, por ejemplo, hicieron dos seguidos de física), que se alternan con naturalidad con seriales y 'realities'. En cambio, la iniciativa pública no destina ningún canal íntegramente a los deportes. Esto lo deja a las privadas.

Una de las consecuencias directas de invertir tiempo en explicar bien la ciencia en los medios es que la gente la entiende y la aprecia mucho más. Y esta concienciación social obliga a los políticos a dedicarle más presupuesto. Con tantos recursos se puede hacer investigación de muy alto nivel y, además, atraer talento de todo el mundo. Recordemos el caso de Guillem Anglada-Escudé, el astrofísico catalán que, en la Universidad Queen Mary de Londres, ha dirigido el grupo que recientemente ha descubierto el exoplaneta más cercano a la Tierra. El hecho de que haya habido 85 premios Nobel científicos en el Reino Unido y solo uno y medio en España es una medida del abismo existente entre los dos países en este tema.

Se podrían discutir estos datos con el argumento del huevo y la gallina: ¿qué ha de ser primero, el interés popular o la presencia mediática? Esta excusa se ha utilizado para afirmar que, para sobrevivir, los medios deben dar al oyente lo que reclama. Primero, esta afirmación podría hasta cierto punto ser cierta en el caso de las privadas, que deben cuadrar números a finales de mes, pero nunca para las públicas, que como principal objetivo no tienen el de ganar dinero sino proporcionar un servicio a la sociedad.

Un pueblo sin unos mínimos conocimientos científicos corre el riesgo de ser manipulado por estafadores y avispados, como vemos que ocurre con una frecuencia alarmante en nuestro país, con unos resultados que pueden llegar a ser mortales. Y segundo, ¿quién dice que la ciencia y la cultura no pueden ser atractivas y económicamente viables? Sky, el principal medio de pago en el Reino Unido, también tiene su canal cultural, Sky Arts. Si no fuera rentable, ya lo habrían cerrado hace tiempo.

El círculo vicioso de ignorancia/invisibilidad se puede romper, pero nos debemos esforzar todos. La solución no puede ser solo introducir píldoras en los programas generalistas, como se hace mayoritariamente ahora. Es un primer paso que había que dar para salir del pozo donde estábamos, pero ahora tocaría pasar pantalla. Tampoco basta con llenar de ciencia los canales secundarios o las madrugadas, aunque esto también tiene utilidad y en Catalunya se hace con un cierto éxito. Debemos sacarla de los guetos; por ejemplo, dándole espacio en las secciones de Opinión, como muy acertadamente hace este diario. Hay que seguir el ejemplo británico y colocar poco a poco programas interesantes en el 'prime time', para que la presencia de contenidos científicos se vea normal. Que se entienda que la ciencia puede ser entretenida sin dejar de ser rigurosa. Quizá perderá siempre la batalla de los porcentajes, pero poco a poco ganará adeptos y dejará de ser vista como algo incomprensible que hacen un grupo de tipos aburridos en las universidades. Esto sería una victoria inmensa.

Lo que digo sirve tanto para la ciencia como para la cultura. No tiene mucho mérito que las defienda, porque yo soy de los dos ramos. Lo que hace falta es que desde fuera también se escuchen quejas. Es como el célebre discurso de Martin Neimöller que denunciaba la cobardía de los intelectuales alemanes ante los nazis, aquel que comienza diciendo: «Cuando vinieron a buscar a los comunistas, yo no dije nada porque no era comunista». La historia termina cuando le vienen a buscar a él y ya no queda nadie que pueda alzar la voz. Aquí pasa lo mismo: ciencia y cultura son patrimonio de todos, y los tenemos que defender con uñas y dientes.

[Publicado en El Periódico, 10/09/16. Versió en català.] 

martes, 19 de julio de 2016

Dolly, 20 años después

A finales de los años 90, cuando estaba en la recta final de la tesis, me propusieron dar una serie de conferencias en asociaciones de la tercera edad repartidas por toda Catalunya. Fue la primera vez que tuve la oportunidad de hacer divulgación. La experiencia resultó tan satisfactoria que, desde entonces, siempre procuro encontrar alguna manera de hablar de novedades científicas con todo el mundo que me quiera escuchar.

Lo recordaba esta semana porque el pasado martes se cumplió el 20º aniversario del nacimiento de la famosa Dolly, la oveja clonada a partir de una célula adulta. Dolly era una de las estrellas de mis charlas para jubilados porque entonces hacía muy poco que Ian Wilmut y otros científicos del Roslin Institute de Edimburgo la habían presentada al mundo. La gente quería saber quién era exactamente esta bestia con nombre de cantante de country (la habían bautizada así por Dolly Parton) y qué significaba este avance sorprendente que salía en todos los periódicos. Y, sobre todo, me preguntaban si esto implicaba que pronto podríamos 'fotocopiar' humanos. A pesar de que parecía una cuestión fácil de contestar, incluso hoy no hemos sabido encontrar una respuesta.

Dolly no fue el primer animal clonado. Este honor lo tiene una rana creada en 1958 por sir John Gurdon, pionero de las células madre y premio Nobel en el 2012. Tuvieron que pasar casi 40 años para que aquellas técnicas pioneras se pudieran aplicar a los mamíferos. Esta es la razón por la cual Dolly creó un revuelo extraordinario: acercaba peligrosamente a nuestro entorno más cercano la posibilidad de hacer duplicados genéticos. Pocos años después el hito se repetiría con otros mamíferos: ratones, vacas, cabras... Parecía que no tardaríamos mucho en añadir nuestro nombre en la lista.

Pero los experimentos con embriones humanos todavía se resistían, por motivos que no estaban del todo claros. En el año 2004, el coreano Hwang Woo-suk proclamó que había creado células madre clonadas a partir de un donante, el primer paso del proceso, pero al final se descubrió que todo había sido un engaño. No fue hasta nueve años después cuando, al parecer, por fin se había conseguido de verdad. Más allá de la posibilidad de copiarnos (crear un ejército de clones como el de 'Star Wars' no ha sido nunca una prioridad científica), esto podría servir para personalizar células madre que se podrían utilizar para reparar o sustituir órganos que no funcionan, sin que crearan un rechazo al cuerpo porque tendrían nuestro mismo ADN. Ha sido necesario que transcurran dos décadas, pero finalmente lo que avanzaba en mis conferencias sobre qué podía pasar gracias a las puertas que se habían abierto con Dolly comienza a tomar forma.

Gracias a aquel ciclo de charlas conocí a un montón de personas interesantes, personas mayores que no querían que este mundo se les escapara de las manos y que, a pesar de que les parecía que habían caído en un cuento de ciencia ficción y no podrían salir, luchaban por no quedar fuera de juego. Gente de todo tipo (universitarios, agricultores, empresarios, amas de casa...) que tenían una cosa en común: ganas de saber, uno de los impulsos más básicos y antiguos del ser humano.

Solo necesitaba un proyector de diapositivas y una pantalla para enseñarles la cara de Dolly y podía hacerles soñar con un universo fantástico que seguramente no llegarían a conocer nunca. Pero tenían suficiente sabiendo que sus hijos y sus nietos quizá sí que lo podrían disfrutar.

Aquel futuro que nos prometía Dolly ha resultado bastante diferente de cómo nos lo imaginábamos. Ni siquiera ahora nos es posible adivinar qué efecto tendrán estos descubrimientos en la sociedad. Esto siempre será así. Por muchas previsiones que hagamos, y los científicos nos lo piden cada vez que tenemos un micrófono delante, nunca llegaremos a acertar cuándo se harán realidad las maravillas que pronosticamos. Algunas cosas que ahora nos parecen fáciles de conseguir resultarán imposibles y otras que ni se nos habían ocurrido se convertirán en revelaciones imprescindibles. Y, si todo va bien, iremos avanzando poco a poco hacia un lugar mejor gracias a la ciencia.

Veinte años después de Dolly continúo tratando de explicar qué hacemos los investigadores en el laboratorio y cómo intentamos cambiar el mundo. Dedico tiempo porque me gusta, porque creo que es uno de los deberes de los científicos y porque estoy convencido de que la sociedad necesita estar bien informada para poder elegir su destino. Únicamente espero que, dentro de 20 años más, cuando sea yo quien pase las tardes en un club de jubilados, un jovencito me explique ilusionado todas las cosas fabulosas que pronto deberían ser posibles, y que yo lo sepa escuchar con el mismo entusiasmo que demostraba mi primer público.

[Publicado en El Periódico, 11/06/16. Versió en català.] 

lunes, 27 de junio de 2016

Fotografiar el alma

Los humanos somos animales con una habilidad peculiar: ser conscientes de nuestra existencia. Este es un don que nos ha permitido llegar más lejos que ningún otro ser vivo, pero a la vez es también un quebradero de cabeza fenomenal, porque saber que existes implica entender que la vida es finita. Naturalmente, esta obsolescencia programada nos genera una gran ansiedad. A lo largo del tiempo hemos intentado encontrar una solución al problema, o al menos algo que lo hiciera más soportable. Crear las religiones ha sido el principal logro que podemos aducir en este campo, a pesar de que tienen unos efectos secundarios a veces más nocivos que el daño que quieren tratar.

Uno de los principios comunes a la mayoría de las religiones es asignar alguna forma de inmortalidad a esta esencia que nos separa del resto de animales. Así es como nace el concepto de alma, que se podría definir como el impulso que nos hace conscientes de ser quienes somos y, por tanto, únicos en este planeta. A pesar de los conocimientos científicos actuales, aún no hemos conseguido explicar de una manera satisfactoria cómo funciona exactamente esta conciencia. Lo que sí hemos hecho es abandonar la idea de un espíritu incorpóreo que la justifique, como han defendido siempre las mitologías, porque la explicación es más simple (o quizá más compleja): se trata de una función física del cuerpo que reside en el cerebro.

La búsqueda del sustrato de la conciencia ha preocupado a filósofos y científicos durante siglos, pero no ha sido hasta la llegada de las nuevas técnicas de imagen que hemos podido empezar a acotar un poco su estructura biológica. La herramienta principal que usamos es la tomografía por emisión de positrones (conocida como PET, por sus siglas en inglés), una serie de radiografías computerizadas que permiten determinar qué células están trabajando en un momento dado gracias al hecho de medir cuánta glucosa consumen. Esta técnica, que inicialmente se utilizaba sobre todo para detectar células cancerosas, se ha convertido en indispensable para localizar las funciones cerebrales: es precisamente gracias a la PET que hemos cartografiado qué trabajo hace cada área del cerebro.

A finales de mayo se supo que unos científicos de la Universidad de Copenhague habían utilizado la PET para tratar de cuantificar la conciencia. En su estudio, publicado en la revista Current Biology, midieron la actividad de las neuronas de pacientes anestesiados, en coma, en estado vegetativo permanente o con otros trastornos similares, y la compararon con la imagen obtenida de personas sanas y despiertas. El resultado de los análisis es un mapa del metabolismo cerebral perfectamente correlacionado con el grado de conciencia que exhibe un individuo. La principal aplicación de este trabajo es la posibilidad de medir la gravedad de la desconexión de una mente. Esto servirá para predecir si alguien se recuperará de un coma o no, entre otras cosas, y debería permitir una mejora en la atención de estos enfermos, porque reconoceremos cuáles de ellos son capaces de percibir los impulsos del mundo exterior aunque no reaccionen.

Aparte de la utilidad clínica, el trabajo es innovador porque representa el primer intento de fotografiar el alma. En este sentido, la principal conclusión que se puede sacar leyendo el artículo es que no hay ningún área del cerebro que tenga la exclusiva sobre la conciencia. Así como el habla o la visión se localizan en zonas concretas del córtex, la conciencia estaría determinada por la actividad metabólica conjunta de todo el cerebro. Una mente en profunda inconsciencia exhibe solo el 38% de la actividad de una normal, por ejemplo. Dicho de otro modo, esta capacidad de saber que existimos y que formamos parte del mundo que nos rodea es un trabajo de equipo y no está circunscrita a la función de un solo grupo de neuronas específicas.

Hay quien cree que la demostración definitiva de que la conciencia tiene un origen físico y no divino la obtendremos cuando construyamos el primer ordenador que sepa que existe, uno de los objetivos primordiales de quienes trabajan en inteligencia artificial. Si la conciencia está definida por una serie de neurotransmisores e impulsos eléctricos intercambiados entre células, en principio deberíamos ser capaces de copiarla usando circuitos, conexiones y los programas adecuados. Pero los nuevos resultados indican que la complejidad requerida para alcanzar este estado podría ser inalcanzable. A pesar de que hemos conseguido que las máquinas vean, escuchen o hagan cálculos complejos, la fórmula de la conciencia requiere demasiadas neuronas trabajando juntas como para que, de momento, podamos pensar en reproducirla. Al menos nos podemos consolar pensando en cuán especiales nos convierte eso. 

[Publicado en El Periódico, 11/06/16. Versió en català.] 

lunes, 6 de junio de 2016

8 años de Inmortales...



¡Feliz cumpleaños!

lunes, 23 de mayo de 2016

La arrogancia de los científicos

Últimamente ha habido un revuelo mediático en torno a las terapias alternativas, a raíz de la cancelación, hace unos meses, del máster de homeopatía de la Universitat de Barcelona y, poco después, de su homólogo en la Universidad de València. Que la noticia sea esa y no que una universidad haya sido capaz de mantener un curso seudocientífico durante 13 años (o que el Col·legi Oficial de Metges de Barcelona tenga una sección de homeopatía desde hace 25) es una muestra de la gravedad del problema.

Podríamos calificar de bienintencionados los esfuerzos que diferentes medios y organizaciones han hecho estos días para presentar un debate entre las dos partes implicadas en la polémica, pero en realidad es un desacierto de consecuencias nefastas. La principal es que perpetúa la idea nociva de que en este tema existe la posibilidad de una discusión entre iguales que genere diversidad de opiniones.

Si alguien dijera que la Tierra es plana, ¿le haríamos salir en la televisión a discutir a un astrofísico la forma que tiene nuestro planeta? Si eso nos parece absurdo, ¿por qué seguimos proporcionando altavoces a la homeopatía, que no ha podido demostrar nada de lo que defiende? Que los medios no sepan distinguir entre realidad y fantasías solo contribuye a desinformar y a hacer la bola más grande.

El invento más grande de la humanidad, después del lenguaje, es el método científico. No hay nada que nos haya permitido avanzar tanto como el simple esquema de observar, proponer hipótesis, testarlas y refinarlas hasta poder construir una teoría. Es una receta simple que ya usaban egipcios, griegos y árabes con más o menos acierto, pero que no llegó a estallar del todo hasta la Revolución Científica, que culminó con las grandes obras de Galileo y Newton.

El método científico es el único sistema que hemos descubierto, de momento, que nos permite acercarnos a la verdad. Nuestro conocimiento tiene lagunas, sin duda, pero gracias a la ciencia sabemos con certeza muchas cosas que nos permiten entender el universo en el que vivimos. No es una cuestión de fe, sino de hechos.

Este tipo de afirmaciones a menudo provocan que los que no están de acuerdo te califiquen de dogmático o arrogante, no por la forma de argumentarlo, que puede ser más o menos afortunada, sino por pretender tener acceso a la verdad absoluta. Pero nos guste o no, la realidad es solo una y no está sujeta a opiniones. Lo que es variable es la forma de entenderla, por eso es tan importante ser estrictos a la hora de descartar las alternativas que no tienen sentido. Si las fresas son rojas, y puedes demostrar experimentalmente que lo son, cualquier grupo de personas que te diga que son amarillas estará equivocado, lisa y llanamente, aunque lleven más de 200 años creyéndoselo y se hayan inventado una excusa muy trabajada para justificarlo.

Por lo tanto, poner en la misma mesa a un científico y a alguien que defiende la memoria del agua no es un debate, es un insulto a la inteligencia colectiva de nuestra especie, construida meticulosamente a lo largo de milenios. No importa que sea un premio Nobel como Luc Montagnier, presente en un congreso homeopático en San Sebastián hace unos días, quien apoye estas ideas. No es el único ejemplo de un sabio que ha metido la pata cuando se ha alejado del método científico para poder seguir mejor sus creencias.

¿Funciona la homeopatía? Claro que sí. Se ha comprobado que no es más que una forma de disparar el efecto placebo, que tiene un impacto biológico real e importante. Esto no se debe despreciar nunca y es el auténtico secreto de su éxito: los homeópatas han sabido ocupar un espacio vital antes reservado al médico, el de ser quien escucha al enfermo y le da apoyo moral y esperanza. La progresiva deshumanización de la medicina, que se impone en los sistemas públicos eternamente sobrecargados, abre la puerta a proveedores alternativos, que entonces aprovechan para vendernos sus cuentos chinos. Una de las maneras de cerrar el paso a las seudociencias sería que las ciencias hicieran bien su trabajo.

El gran riesgo de despreciar a los científicos es caer en la trampa de la ignorancia. Un ejemplo es la reciente decisión del Gobierno de Brasil de aprobar, en respuesta a la presión popular, el uso de la fosfoetanolamina sintética para tratar el cáncer, a pesar de que en los últimos 20 años no se haya conseguido probar científicamente que funcione. Hay decisiones que se deben dejar a los expertos si no queremos hacernos daño, porque parece que si suficiente gente se deja engañar podríamos conseguir que incluso se declare oficialmente nulo el Teorema de Pitágoras. Quizá la ciencia tiene un problema de imagen y de comunicación, pero la verdadera arrogancia es pretender que podemos prescindir de ella.

[Publicado en El Periódico, 15/05/16. Versió en català.] 

martes, 26 de abril de 2016

Una cuestión peluda

Si un día el médico te dice que sufres sinefridia, lo más posible es que creas que has cogido una enfermedad grave. Pero detrás de esta palabra malsonante solo se esconde un problema estético, que afecta a hombres y mujeres: ser cejijunto. A pesar de que se asocia con trastornos graves, como el Síndrome de Cornelia de Lange, la mayoría de veces tener una sola ceja puede ser feo, pero es totalmente inofensivo. Además, se cura fácilmente con unas pinzas o un poco de cera aplicadas repetidamente. O quizá ni hace falta: muchos famosos han optado por lucirla orgullosos en algún momento de su carrera, desde George Bush a George Harrison, pasando por Brad Pitt, Shakira y la cejijunta más famosa de todos, Frida Kahlo, que lo convirtió en un símbolo identitario. No parece, pues, que deba ser especialmente urgente para el mundo científico determinar qué define la densidad pilosa de las cejas de cada uno.

Pero esto es precisamente lo que ha hecho un grupo de investigadores dirigido por Andrés Ruiz-Linares, de la University College London. En un artículo publicado recientemente en la revista 'Nature Communications', revelan que el grosor de las cejas y su tendencia a juntarse depende en buena parte de qué variante del gen PAX3 hemos heredado. Encontrar el 'gen de la sinefridia' no pasaría de ser una curiosidad si no fuera porque el mismo estudio también identifica otros parámetros relacionados con el tema, como los genes que influyen en el espesor de la barba, la facilidad de acumular canas, si se tiene el cabello liso o rizado, etc. Aquí es cuando las cosas empiezan a ponerse interesantes.

Es la primera vez que se hace un análisis tan completo de la relación entre el genoma y los pelos que nos recubren el cuerpo. Es más útil de lo que pueda parecer a primera vista porque, como sabe todo el mundo que se ha fijado un poco, los patrones capilares están muy ligados a los diferentes grupos étnicos que pueblan la Tierra y, por tanto, son una especie de punta visible del iceberg. Por ejemplo, la mayoría de chinos tienen el cabello liso y negro, mientras que en el África subsahariana es rizado y en las zonas nórdicas principalmente rubio.

A pesar de esta relación obvia con la genética, aunque nadie había estudiado determinadas diferencias. Sí que se habían descubierto algunos genes relacionados con la calvicie o el color del cabello, pero esta vez el equipo del doctor Ruiz-Linares ha ido más lejos y ha analizado el ADN de más de 6.000 voluntarios sudamericanos, de cinco países (Brasil, Colombia, Chile, México y Perú) y etnias diferentes (de origen europeo, africano o americano). Lo que al final emerge del complejo estudio es un perfil genético que puede predecir de forma bastante precisa algunos aspectos clave de la apariencia de una persona.

Esta información se puede utilizar de varias maneras. Para empezar, nos ayudará a entender la evolución de los humanos. El hecho de que en unas zonas del planeta predominen una serie de genes y el tipo de cabello que se asocia a ellos puede ser la consecuencia de una adaptación al clima o simplemente una selección debido a preferencias sexuales totalmente aleatorias, que han hecho que cierta distribución de pelos se considerara más atractiva. El ADN nos lo dirá.

También podrían haber aplicaciones más prosaicas. Si se sabe qué hace que el pelo se rice o se emblanquezca prematuramente, se podría buscar una manera de impedir que ocurra antes de que se formen los nuevo cabellos. Y los cejijuntos podrían ahorrarse tiempo y dinero en depilaciones si se descubriera cómo controlar el PAX3. La industria de los cosméticos tendrá un nuevo camino para explorar.

Pero quizá el uso más inmediato lo hará la policía científica. Con una pequeña muestra biológica recogida en la escena del crimen, se podrá predecir mucho mejor el aspecto del sospechoso, por lo menos qué tipo de cabello tiene y si es muy o poco peludo. Esto, junto con otra información que ya sabemos cómo extraer de los genes, como por ejemplo una predicción de la altura o el color de ojos y de piel, permitirá hacer retratos robot muy cuidadosos sin necesidad de testigos ni dibujantes que interpreten sus recuerdos .

En la era post-Snowden, a unos les preocupa que los gobiernos y las multinacionales acumulen 'terabytes' de datos sobre sus vidas, por insustanciales que parezcan, y a otros que la histórica opacidad de entidades financieras de ética dudosa ya no pueda ser garantizada. Pero lo que realmente asusta es que, a lo largo del día, dejamos ir por todas partes miles de muestras que contienen una cantidad ingente de información sobre nosotros, que ni siquiera conocemos entera. Y ahora estamos aprendiendo a leerla. Es como si fuéramos perdiendo el DNI en cada esquina. Las consecuencias futuras para la privacidad de los individuos son, hoy por hoy, imprevisibles.

[Publicado en El Periódico, 17/04/16. Versió en català.] 

martes, 29 de marzo de 2016

Yo soy yo y mis bacterias

Cuando hablamos de bacterias, lo primero que nos viene a la mente es la palabra 'enfermedad'. La gonorrea, la sífilis, el tétanos, la tuberculosis, el tifus, el cólera, la difteria, algunas neumonías y meningitis, la salmonelosis, la legionelosis y muchas otras infecciones terribles y conocidas por todos están causadas por estos microbios. Pero el impacto que tienen en el ser humano va mucho más allá de brotes y epidemias mortales: un buen número de bacterias son, en realidad, grandes aliados nuestros, unos compañeros de viaje tan bien compenetrados con sus huéspedes que, como confirman una serie de descubrimientos recientes, se han acabado convirtiendo en una parte esencial de nosotros.

Hace tiempo que sabemos que las bacterias son los reyes de este planeta. Fueron los primeros pobladores, hace unos 4.000 millones de años, y aquellos microorganismos primitivos acabaron convirtiéndose en los ancestros de todas las formas de vida que conocemos. Son capaces de adaptarse a cualquier condición, por adversa que sea, hasta el punto de que, si algún día los humanos nos cargamos la Tierra, es muy probable que las bacterias sobrevivan a la catástrofe. Del más de un millón de tipos diferentes que se conocen, solo un millar y medio causan enfermedades. El resto coexiste pacíficamente con nosotros. Es más: varios centenares de estas especies benévolas viven dentro y encima nuestro y colaboran estrechamente en muchas de las funciones diarias del cuerpo.

Esta simbiosis quedó cuantificada cuando, en 1972, se calculó que un humano adulto tendría diez veces más bacterias que células propias. Un artículo publicado en enero en la revista 'Cell' presenta un análisis más riguroso que lo deja en una sola bacteria por cada célula humana. Sea como sea, es un número fenomenalmente grande (un número uno seguido de 13 o 14 ceros). Es lógico deducir que este ejército de microbios que acarreamos por todas partes debe tener algún tipo de efecto en nuestra fisiología. Y así es: en los últimos años hemos descubierto que el 'microbioma humano' (el conjunto de de microbios que habitan un cuerpo) juega un papel clave en procesos digestivos, en protegernos de sus congéneres 'malo's e incluso en determinar la tendencia que tenemos a engordar.

La importancia de tener un microbioma sano y equilibrado incluso ha hecho que algunos expertos propongan que a los niños nacidos por cesárea se les debería exponer artificialmente a las bacterias vaginales de sus madres para que la flora que los empiece a colonizar sea ​​lo más parecida posible a la que se consigue en un parto natural. En un artículo publicado en 'Nature medicine' el mes pasado se confirma que este procedimiento restablece las bacterias que no se adquieren con la cesárea. Todavía no se sabe si tendrá consecuencias positivas en la salud, pero se cree que podría reducir los casos de obesidad y asma, que son más frecuentes en estos niños.

Relacionado con esto, también se está tratando de definir una 'terapia bacteriana' que se pueda aplicar a los cerca de 180 millones de niños que sufren desnutrición. Tres estudios publicados en 'Science' y 'Cell' este febrero demuestran que tener el microbioma adecuado puede ayudar al desarrollo, incluso cuando la alimentación es escasa, gracias a cómo las bacterias modulan los niveles de varias hormonas. La flora de los intestinos de los niños malnutridos es más inmadura que la que les tocaría por su edad y, al menos en ratones, cuando se les 'trasplantan' las bacterias adecuadas recuperan la masa muscular y ósea.

La policía científica también se beneficiará de los nuevos conocimientos sobre las bacterias. Por ejemplo, algunos estudios han revelado que el microbioma de cada uno es lo suficientemente diferente como para constituir una especie de huella única e intransferible. Con las herramientas adecuadas podríamos averiguar quién ha estado en la escena de un crimen solo determinando qué bacterias ha dejado allí.

Son técnicas basadas en leer el ADN de los microbios y todavía están en fase experimental, pero no sería de extrañar que, en un futuro más o menos próximo, existiera una base de datos con el microbioma de los criminales, como tenemos una con las huellas dactilares o, en algunos lugares, con el ADN. Además, el estudio de los microbios presentes en un cadáver nos podrá decir con mucha exactitud cuándo murió esa persona.

Cada vez es más obvio que, parafraseando la máxima de Ortega y Gasset, yo soy yo y mis bacterias. La relevancia que tienen en nuestra vida es sorprendente, hasta el punto de influir decisivamente en la salud y formar parte de nuestro carnet de identidad. La próxima vez que alguien les hable de bacterias, no piensen solo en enfermedades: recuerden también todo lo bueno que hacen por nosotros y hasta qué punto somos inseparables.

[Publicado en El Periódico, 19/023/16. Versió en català.] 

lunes, 29 de febrero de 2016

Sobre el sexo y la igualdad

El sexo es un gran invento. Desde el punto de vista biológico, quiero decir. Lo hacen los pájaros, lo hacen las abejas e incluso las plantas y las bacterias. Si la evolución no hubiera dado con este sistema para conseguir que los seres vivos se multipliquen, la Tierra no disfrutaría de la inmensa diversidad que actualmente la puebla. Y a pesar de su impacto fenomenal, la idea básica es muy simple. Porque si prescindimos de toda la parafernalia que lo rodea, desde la complejidad morfológica de los aparatos reproductores a los coloreados rituales de apareamiento, el sexo no deja de ser un mecanismo para mezclar fragmentos de ADN, lo que, como consecuencia, crea combinaciones únicas en cada nueva generación.

Uno de los efectos secundarios del sexo es que fuerza la distinción de dos subtipos dentro de una misma especie, lo que llamamos machos y hembras. La principal divergencia entre ellos es el papel que adoptan en el intercambio de información genética que tiene lugar durante la actividad sexual. Pero en la mayoría de animales esto también está relacionado con una serie de atributos físicos que condicionan muchas de las funciones de aquel individuo, entre ellas las relacionadas con cómo contribuye a la gestación y el cuidado de las crías. Así es como nos ha hecho la Naturaleza. Claro que a nosotros, los humanos, nos importan un bledo los planes que tenía la Naturaleza. Nos ha costado unos cuantos milenios, pero al final hemos encontrado la forma de aproximarnos a todo lo que rodea al sexo de la manera que más le conviene a cada uno, independientemente de los dictados de la biología. O al menos, eso es lo que se supone que ocurre en las sociedades avanzadas.

Rebelarnos contra el encasillamiento social por motivos sexuales es uno de los hitos de la cultura moderna, pero a veces nos lleva a negar obviedades. La principal: que hombres y mujeres somos diferentes. La ciencia es la primera que crea confusión. Por ejemplo, un estudio de noviembre del año pasado, realizado en 1.400 voluntarios, concluía que los cerebros de los hombres y las mujeres son físicamente muy parecidos. Algunos lo han considerado como la prueba definitiva de que la mujer no es inferior intelectualmente al hombre, como por desgracia se ha defendido durante siglos, pero eso ya lo sabíamos hace tiempo. Los mismos autores lo vendían como el fin de la distinción entre macho y hembra, que quizá es un poco excesivo. No debemos perder de vista que hay tendencias y susceptibilidades más frecuentes en uno de los dos sexos que no se pueden explicar solo por la presión social. Este trabajo en realidad no nos dice que no haya ciertas peculiaridades cerebrales ligadas al género, sino que su razón no es macroscópica.

A nivel genético, los determinantes de las diferencias también son sutiles. Hace un par de años, un grupo de científicos demostró que solo se necesitan dos genes del cromosoma Y (el que es propio de los hombres) para que un ratón macho pueda tener descendencia. A finales de enero, el mismo equipo iba un poco más lejos: habían logrado sustituir la función de estos dos genes activando otros que hay en el cromosoma X (del que las mujeres tienen dos copias). Así demostraban que, si ayudamos con técnicas de reproducción asistida, podríamos prescindir totalmente del cromosoma Y por el sexo. Esto se ha interpretado como una estocada mortal al símbolo máximo de la masculinidad, como si el hecho de que sean necesarios pocos genes para una de las funciones específicas del hombre sea un demérito. En el genoma tenemos más de un gen sin el cual no dejaríamos de ser un embrión a medio formar. Y más de uno sin el cual no viviríamos pasada la adolescencia. Que solo un par de genes justifique que haya una división de géneros no quiere decir que las distinciones entre uno y otro no sean sustanciales.

Tal vez solo estamos separados por un cromosoma medio anquilosado, pero es una de las cosas que hacen que la vida en este planeta sea tan interesante. Somos físicamente diferentes, tenemos intereses y deseos diferentes, y nos comportamos de manera diferente, y eso no tiene nada de indeseable. A veces nos obsesionamos en encontrar justificaciones científicas para una igualdad biológica entre sexos que ni existe ni nos solucionará ningún problema. En lugar de eso, deberíamos reconocer primero que estas diferencias son reales y luego dejar que cada uno las gestione como mejor le parezca, sin que sirvan nunca de excusa para dirigir o limitar las opciones y las elecciones de ninguna persona. No se trata de conseguir que todos los hombres y las mujeres hagamos exactamente lo mismo, sino de que todo el mundo pueda hacer lo que le apetezca como le apetezca, al margen de las imposiciones genéticas o del condicionamiento social al que estamos sometidos desde que nacemos. Esta es la verdadera igualdad a la que debemos aspirar. 

[Publicado en El Periódico, 21/02/16. Versió en català.] 

martes, 23 de febrero de 2016

Dios y el nacimiento de la justicia

Uno de los problemas que ha planteado la filosofía a lo largo de los siglos es hasta qué punto el hombre es un animal moral. ¿Nacemos con un sentido de justicia impreso en los circuitos o la adquirimos gracias a la socialización? Es un interés comprensible, porque esta es uno de los eslabones esenciales para la cooperación entre humanos, sin la cual no podría existir ninguna forma de cultura o progreso. Como en muchos otros terrenos que antes estaban reservados a pensadores que proponían hipótesis en un entorno puramente teórico, ahora la ciencia nos permite atacar este tipo de dudas usando una aproximación experimental, centrada en datos reproducibles, que nos proporciona respuestas más ajustadas a la realidad que las de los filósofos clásicos.

Uno de estos estudios lo hicieron recientemente un grupo de psicólogos dirigido por Katherine McAuliffe, del Boston College, en Massachusetts. Su objetivo era entender a qué edad se forma el concepto de justicia en nuestra mente y si hay diferencias que vengan determinadas por el entorno cultural. Muchos de los análisis sobre el tema se han limitado a examinar habitantes de zonas industrializadas de Occidente, por eso esta vez optaron por hacerlo con casi 2.000 niños de siete países diferentes, distribuidos en tres continentes (Estados Unidos, Canadá, México, Perú, India, Senegal y Uganda), y con variedad de religiones (católicos, protestantes, hindús, musulmanes) y entornos (rural y urbano). Tenían edades comprendidas entre los 4 y los 15 años, y los agruparon en parejas.

Uno de los voluntarios escogía como repartir unas golosinas: a partes iguales, o la mayoría para uno de ellos y solo unas pocas para el otro. Su compañero debía decidir entonces si aceptaba la oferta o no. Si decía que sí, se podían comer los caramelos que les habían tocado; en caso negativo, ninguno de los dos recibía el premio. El ejercicio permite comprobar de forma sencilla las bases morales de los chicos, ya que los repartos desiguales generan respuestas de rechazo con más frecuencia cuando se empieza a tener claro el concepto de lo que es justo y lo que no.

Los resultados de la prueba, publicados en la revista 'Nature' el pasado mes de noviembre, son interesantes. Para empezar, los niños de todos los países analizados desecharon los ofrecimientos que les ponían a ellos en desventaja, no muy a menudo cuando tenían 4 años pero cada vez más a medida que aumentaba la edad de los participantes. Este incremento era siempre obvio, aunque en lugares como México evolucionaba lentamente.

De aquí se puede deducir que el sentido de justicia aparece transversalmente y aproximadamente a la misma edad, y también que las normas se acaban solidificando alrededor del inicio de la escolarización básica. Pero en Estados Unidos, Canadá y Uganda, surgía otro fenómeno: los chicos mayores también manifestaban su negativa si los beneficiados en la propuesta del repartidor eran ellos mismos.

Quejarse por recibir un trato injusto es una reacción universal y espontánea que se desarrolla en breve, mientras que el impulso de defender al prójimo tarda en emerger, con toda seguridad porque depende de factores culturales. Hay que tener presente que la mayoría de países exhiben esta segunda variante de justicia, lo que quiere decir que en los casos que no se forma durante la niñez, lo debe hacer a partir de la adolescencia. Que el sentido de lo que es justo varíe según las sociedades, al menos en los matices, ya se sabía. Pero este estudio demuestra que las discrepancias resultan evidentes desde los años formativos y que, a pesar de que algunas partes del concepto se diría que tienen una fuerte influencia cultural, otras quizá no tanto.

Se podría pensar que un motivo de las divergencias es la variedad en las religiones que han alimentado la creación de las diversas culturas. Pero a pesar de que las creencias parecen diferentes, todas tienen algo en común: la existencia de una o varias entidades omniscientes que castigan a los que se desvían de lo que es justo. En cambio, en los grupos de humanos primitivos, poco numerosos, las divinidades estaban más ligadas a la naturaleza y menos en las relaciones sociales.

A pesar de todo el daño que la religión organizada ha hecho a lo largo de los siglos, algunos proponen que jugó un papel indispensable en el principio del establecimiento de las sociedades, reforzando la implantación de un sistema justo que permitía la cooperación a gran escala. Posiblemente debido a esta necesidad ahora entendemos la justicia de manera similar en todo el mundo. Los animales, al menos los más evolucionados, también tienen un concepto de justicia primario. Pero quizá lo que nos diferencia de ellos es que hemos conseguido creer en dioses autoritarios, en el formato que sea, y bajo su vigilancia hemos sido capaces construir un tejido social enormemente complejo
[Publicado en El Periódico, 11/7/15. Versió en català.]

martes, 12 de enero de 2016

El placer psicológico de comer

Nauru es una isla de la Micronesia de poco más de 20 kilómetros cuadrados que tiene el dudoso honor de ser el lugar del mundo donde hay un mayor porcentaje de obesidad: casi el 95% de sus 10.000 habitantes. No es solo un problema local: de la lista de los diez países con más obesos, ocho son islas del Pacífico. Esta coincidencia se puede explicar porque los primeros humanos que llegaron tuvieron que sobrevivir una larga travesía marítima, durante la que murieron de hambre la mayoría de exploradores. Solo los que tenían la suerte de poder pasar con menos comida salieron adelante. Esto es un ejemplo de embudo evolutivo, un hecho dramático concreto que selecciona a los individuos más adaptados a las condiciones extremas del entorno, en este caso la falta de alimentos.

Pero con el paso de los años, el metabolismo lento de los colonos que habían logrado establecerse en las islas se ha vuelto en su contra. Cuando adoptaron la dieta occidental moderna, tan hipercalórica, acumularon los excedentes en forma de grasa. El resultado es una epidemia de enfermedades relacionadas con un alto índice de masa corporal, que hace que la esperanza de vida de estas poblaciones haya bajado en picado.

Esta historia se cuenta en las universidades no solo como ejemplo práctico de cómo los humanos estamos sometidos a las leyes de la selección natural, como cualquier otro ser vivo, sino también como prueba de la importancia que tiene el metabolismo de cada uno en el mantenimiento de un peso ideal. Hay gente que con pocas migajas satisface los requerimientos metabólicos básicos de su cuerpo (y, como los colonos de la Micronesia, engorda enseguida), mientras que otros necesitan ingerir mucho más para cubrir los mínimos. Ser de los primeros ha sido una ventaja durante la mayor parte de la historia de la Humanidad, cuando tener un plato en la mesa tres veces al día se podía considerar un lujo para mucha gente. En cambio, ahora son los segundos quienes pueden considerarse afortunados, porque evitan los conflictos del sobrepeso.

Aunque podría parecer que acabamos de reducir la grave plaga de obesidad que sufren los países desarrollados a una simple predisposición bioquímica y genética, la realidad es que el problema es sobre todo psicológico. Comemos porque tenemos sensación de hambre, es cierto, pero una vez superada la necesidad primaria de alimentarnos, entramos en una fase de recompensa similar a la que obtendríamos con cualquier droga: hartarse es un placer neurológico. Es la forma que tiene la naturaleza de asegurar que acumularemos energía para cuando vengan tiempos difíciles. Estamos biológicamente programados para comer tanto como podamos cuando hay oportunidad, por eso nos cuesta resistirse a ello. La evolución no había previsto que lograríamos solucionar con tanto acierto el problema de la escasez habitual de recursos, y ahora sufrimos las consecuencias.

Si tenemos esto presente, entenderemos que las dietas funcionan o no dependiendo sobre todo de cómo resuelven el factor psicológico. Adelgazar es solo una cuestión de ingerir menos calorías de las que gasta el cuerpo, no hay ningún otro truco, pero esto es más fácil decirlo que hacerlo, sobre todo si eres de los 'afortunados' que tienen un metabolismo al ralentí. Luchar contra el impulso de seguir comiendo puede ser una auténtica tortura. Un estudio reciente publicado en la revista 'Cell' puede haber encontrado la solución definitiva. Estudiando las dietas y las reacciones biológicas de 800 voluntarios, unos científicos del Weizmann Institute de Israel se dieron cuenta de que los niveles de glucosa en sangre varían mucho de persona a persona a pesar de haber ingerido los mismos alimentos. La consecuencia es que la sensación de saciedad, que viene determinada precisamente por la glucosa, es muy diferente. Esto quiere decir que mientras alguien se puede sentir llenísimo comiendo un bistec, a otro le parecerá poca cosa, aunque la energía consumida es exactamente igual. Así pues, el régimen perfecto será el que logre hartarte con el menor número de calorías y, según este estudio, esto requeriría personalizar el tipo de alimentos para saber cuáles te hacen subir más la glucosa.

Espero no haberos amargado lo que queda de fiestas con estas disquisiciones sobre regímenes ideales y obesidad. Aunque es cierto que es un problema importante al que no prestamos suficiente atención, no pasará nada si nos entregamos, otra vez, a los excesos propios de las fiestas y a disfrutar del placer de acumular miles de calorías (acompañados de los seres queridos, que también ayuda). Pero a partir de pasado mañana, es deseable que intentemos volver a hacer bondad. Nos jugamos la salud.


[Publicado en El Periódico, 30/12/15. Versió en català.]