miércoles, 31 de diciembre de 2008

ENTREVISTA A JUAN RAMÓN LACADENA

Cuando se escucha hablar a este Zaragozano que vio la luz en 1934 se tiene la sensación de que se está ante una de esas personas que nacieron para marcar una etapa. Juan Ramón Lacadena es un hombre de aspecto afable, gesto seguro y tono contundente, que imprime a su dialéctica el saber de toda una vida dedicada a la ciencia. Es miembro de la Sociedad Española de Genética –de la que fue socio fundador y presidente durante cinco años- y acaba de abandonar su despacho como Profesor Emérito de la Universidad Complutense de Madrid, donde ha sido catedrático de genética durante casi treinta y cinco años. Además, es Académico Correspondiente Nacional de la Real Academia de Ciencias Exactas, Físicas y Naturales del Instituto de España, y Académico de Número de la Real Academia Nacional de Farmacia del Instituto de España.
Hoy, con la amabilidad que siempre muestra, ha accedido a concedernos una entrevista para charlar sobre ciencia y literatura, y como siempre, sus palabras se presentan como la lección magistral de un genio que asume su condición con una lúcida sencillez.




(entrevista publicada en el número 13 de la revista digital elcoloquiodelosperros, en Mayo de2006)



José Antonio Garrido (JAG). Buenos días Juan Ramón. Comencemos hablando de ciencia y de esa palabra que la sociedad ha acabado por aceptar pero a la que costó acostumbrarse: clonación. Cuando en febrero de 1997 se anunció al mundo la existencia de una ovejita clónica llamada Dolly, el titular de un periódico con tintes sensacionalistas rezaba: “Hoy la oveja, mañana el pastor”. Además, con cierta asiduidad la literatura ha tratado el tema de la clonación humana y de las sociedades futuras con resignado catastrofismo. ¿Cree usted que esto no es más que un recurso literario o considera que existen motivos para ser realmente tan pesimistas en referencia al futuro y el uso de las herramientas que la ciencia pone en las manos del hombre?

Juan Ramón Lacadena (JRL). Buenos días José Antonio. Más que tintes sensacionalistas, yo diría que el titular de aquel artículo quería ser profético. Yo lo he utilizado en numerosas ocasiones porque me parece que fue un acierto de marketing editorial. De hecho, después de la oveja Dolly se han obtenido animales clónicos en más de una docena de especies de mamíferos: ratón, vaca, cabra, conejo, cerdo, caballo, mula, ciervo, gato, perro, etc. Puesto que podemos admitir que los avances en genética de la reproducción y embriología de mamíferos de laboratorio o domésticos son extrapolables a la especie humana, eso significa que lograrlo en la especie humana no es cuestión más que de decisión, dinero… y de ética. No obstante, la realidad, hoy por hoy, es que está siendo muy dificultosa la clonación en humanos. Descartando las fraudulentas investigaciones llevadas a cabo en 2004 y 2005 por el Dr. Hwang en la Universidad de Seúl que acumulaban más de sesenta embriones humanos obtenidos por la técnica de transferencia de núcleo, la realidad experimental se reduce a dos embriones, uno de los cuales no llegó a pasar del estadio de seis células y el otro apenas alcanzó el estadio de blastocisto. Pero, insisto, si no se ponen barreras éticas y legales al final se podría llegar a la obtención de embriones humanos clónicos.

JAG. En Febrero de 2001 se publicó la secuencia del genoma humano, mientras que en septiembre de 2005 fue la del Chimpancé la que salió a la luz en la revista Nature. Análisis comparativos de ambas secuencias concluyen que el número de genes codificantes de proteínas en ambos casos ronda los 20.000 –un número considerablemente inferior al que se esperaba, al menos para el hombre-, y que las proteínas ortólogas (equivalentes) a las que estos genes dan lugar son enormemente similares. Ante este hecho cabe plantearse una serie de cuestiones bioéticas como qué nos convierte en humanos y qué a ellos en chimpancés o en qué sentido ha dirigido la evolución esas pequeñas diferencias para convertirnos en lo que somos. ¿Cuál es su opinión al respecto?

JRL. Efectivamente, los primeros borradores casi completos de secuenciación del genoma humano se hicieron públicos simultáneamente en 2001 por los dos grupos de investigación privado y público que competían en la carrera y que coordinaban, respectivamente, los Doctores J. Craig Venter y Francis Collins. Tres años más tarde, en 2004, el Consorcio Internacional presentó la secuencia prácticamente definitiva de un 99% del genoma humano.
En relación con la pregunta que me hace, recuerdo que en el Congreso sobre “El Derecho ante el Proyecto Genoma Humano” que, organizado por el Dr. Santiago Grisolía, tuvo lugar en Bilbao en 1993, el Doctor Venter habló del interés de acometer el “Proyecto Genoma Chimpancé” como base para comparar nuestro genoma con el del chimpancé, nuestro pariente evolutivo más cercano entre las especies que han sobrevivido en el proceso de la evolución en la línea filogenética de los Póngidos puesto que en la línea de los Homínidos solamente ha subsistido la especie humana. Pues bien, efectivamente, como usted dice, en 2005 se presentó un primer borrador –todavía incompleto – del genoma del chimpancé. De la comparación de ambos genomas, el suyo y el nuestro, se deduce que compartimos en torno al 99% de las secuencias de ADN. Sin embargo, ellos son monos y nosotros somos seres humanos. ¿Por qué es esto así? ¿qué nos diferencia?
Se han escrito miles de páginas tratando de establecer las diferencias entre los seres humanos y el chimpancé o cualquier otra especie de grandes simios como son el gorila y el orangután. A mí me satisface intelectualmente la siguiente contestación: Los seres humanos tenemos tres singularidades que no tiene ninguna otra especie animal: 1) Somos sujetos cultos; es decir estamos genéticamente capacitados para utilizar el lenguaje simbólico. La cultura humana comenzó cuando un primer homínido fue capaz de contarle a un congénere suyo mediante un lenguaje simbólico algo que había hecho. 2) Somos sujetos religiosos; es decir, estamos genéticamente capacitados para preguntarnos por el sentido de la vida, nuestro origen y destino. Somos capaces de trascender de nosotros mismos preguntándonos por la existencia de Dios y aceptar libremente la respuesta afirmativativa o negativa. ¿Usted cree que un chimpancé se puede hacer tales planteamientos? 3) Somos sujetos éticos; es decir, estamos genéticamente capacitados para prever la consecuencia de nuestros actos, para hacer juicios de valor, distinguiendo el bien del mal y optar libremente por hacer el bien o hacer el mal.
En este contexto se podría hacer referencia al Proyecto Gran Simio que trata de extender a los chimpancés, gorilas y orangutanes la comunidad de iguales que constituimos los seres humanos. El Proyecto Gran Simio, que surgió en 1993 liderado por el filósofo Peter Singer, ha sido objeto recientemente de una polémica social en España al haber sido presentada por el Grupo Socialista en el Congreso de los Diputados una Proposición No de Ley instando al Gobierno a que se adhiriera a dicho Proyecto.

JAG. Hace apenas unas semanas se aprobó en el Pleno del Congreso la Ley sobre Técnicas de Reproducción Humana Asistida que legaliza el diagnóstico genético preimplantacional, una técnica que permite detectar determinadas anomalías en el embrión y transferir al útero materno únicamente los embriones genéticamente “normales” para los cromosomas estudiados. Con esta técnica se podrían evitar enfermedades como la Distrofia muscular de Duchenne o la Anemia de Fanconi. Pero la Iglesia Católica, como en otros tantos aspectos relacionados con el avance de la ciencia, ha emitido su desaprobación pública. Parece que el desencuentro Ciencia-Iglesia fuera total. ¿Cree que hay un punto en el que ambos pudieran –o tendríamos que decir “debieran”…– confluir? ¿Son realmente inmiscibles la doctrina católica y el devenir de la ciencia?

JRL. La pregunta que me hace es muy compleja y necesitaría mucho tiempo y espacio para responderla. Empezaré contestando por el final: yo sí creo que la Ciencia y la Creencia son compatibles y que están obligadas a entenderse. Más aún, le puedo decir que yo soy un científico creyente y no me considero una especie de esquizofrénico intelectual porque sé hasta dónde llega la Ciencia y dónde comienza la Creencia. Lo que no se puede hacer es mezclar las cosas como ha sucedido, por ejemplo, con la controversia “creacionismo-evolucionismo” en los Estados Unidos. Muchas veces ocurre en estos temas controvertidos que el conocimiento científico es tan grande que el saber “cómo” ocurren las cosas se confunden con el “porqué”. Sobre estos temas he escrito muchos artículos y un pequeño libro que se titula “Fe y Biología”.
Respondiendo ahora a la primera parte de su pregunta le diré que, en mi opinión, el tema de la selección de embriones –y cuando de habla de selección debemos ser conscientes de que en la otra cara de la moneda está la eliminación de embriones– no es un problema de religión, sino que es un problema ético que cada cual resuelve en función de sus propios criterios bien fundamentados. Hace ya unos cuantos años decidí abandonar la bancada de laboratorio para dedicar todo mi tiempo a la reflexión y el diálogo interdisciplinar entre la Genética –que es mi profesión– y la Bioética. Jamás me he arrepentido de esa decisión; hasta tal punto que en 2004, a mis setenta años, obtuve el grado de magíster en Bioética.

JAG. La literatura y la ciencia son campos de la creación o del conocimiento que, a pesar de tener muchos puntos en común, tradicionalmente suelen presentarse separados y divergentes. No obstante, hay muchos escritores que han tocado con acierto en sus novelas cuestiones científicas como es el caso de Julio Verne o Aldous Huxley, por citar sólo a los más famosos, y científicos que han desarrollado su labor literaria con reconocido éxito como es el caso de Conan Doyle, Asimov o el doctor Marañón. ¿Cree que el respeto por entrar en un campo que se considera ajeno puede estar haciendo que nos perdamos grandes joyas literarias o a ilustres escritores con formación científica?

JRL. Estoy totalmente a favor de una actividad intelectual que combine los conocimientos científicos y las dotes de escritor. Aquí me gustaría deslindar dos situaciones distintas: una es la del científico que además es escritor de gran valor literario −pongamos por ejemplo al Dr. Marañón, al que usted ha citado− y otra la del científico que además es un gran divulgador. La divulgación científica es necesaria para educar a la sociedad. Es importante saber transmitir en lenguaje asequible al ciudadano medio las realidades y logros de la investigación. Además, en estos momentos actuales en los que los avances científicos son tan espectaculares, pero a la vez repletos de problemas éticos, es nuestra obligación comunicar a la sociedad los temas más complejos con la mayor claridad posible, contribuyendo a que el ciudadano forme su propio criterio sobre temas en principio difíciles de comprender. Se trata de evitar la “manipulación social” que a veces acompaña a la “manipulación genética” y que no se confunda la “opinión pública” con la “opinión publicada”.

JAG. El trabajo del penúltimo Premio Príncipe de Asturias de Investigación Científica y Técnica, el neurólogo portugués Antonio Damasio, ha sido fundamental en la comprensión del funcionamiento de las áreas cerebrales en las que están involucradas la toma de decisiones y la conducta, además de establecer las bases cerebrales del lenguaje y la memoria. ¿Considera que la Genética debería tener la última palabra al respecto, debiendo fijarse las bases de la conducta humana en la secuencia génica del individuo?

JRL. Desde hace muchos años, en mis libros de Genética y en mis clases en la Universidad vengo defendiendo que el “comportamiento” es el último componente del desarrollo, que empieza por la proliferación celular, la citodiferenciación, la histogénesis, la organogénesis y la morfogénesis. Haciendo una analogía, en la Genética del Desarrollo se pasa del gen unidimensional y las hojas blastodérmicas bidimensionales a la morfogénesis tridimensional y al comportamiento multidimensional.
¿Cómo definir el comportamiento? Para mí, la mejor definición de comportamiento se la leí al Profesor Pinillos: por comportamiento se puede entender “cualquier reacción a cualquier estímulo”. La virtud de esta definición tan sencilla es que abarca todo tipo de comportamiento, desde los tropismos y las taxias más simples a los comportamientos más complejos como son los reflejos, los instintos, el aprendizaje y la inteligencia.
El estudio de la Genética del Comportamiento tiene varias dificultades como son: 1) La dificultad de definir y valorar el carácter que se quiere estudiar. 2) La distancia tan grande que hay –hablando en términos genéticos– entre el genotipo y el fenotipo o pauta de comportamiento. Pensemos en los receptores que reciben el estímulo, el sistema intermediario nervioso o endocrino que lo procesan y los efectores que realizan la respuesta y que todos ellos pueden estar genéticamente determinados. 3) En tercer lugar hay que considerar la influencia del ambiente que puede interferir y modificar la acción de los genes. En los estudios de genética del comportamiento humano hay que ser muy prudentes, no podemos decir sin más ni más que todo es debido a los genes −a la secuencia del ADN en los términos de su pregunta− ni que los genes no juegan papel alguno y que todo es debido al ambiente, como a veces se oye decir. En la especie humana hay muchos caracteres de comportamiento en los que no hay duda alguna de que existe una influencia genética y una influencia ambiental; lo importante es tratar de dilucidar en qué medida influyen ambos componentes. En muchas situaciones hay que huir de los determinismos genéticos absolutos, pasando a las “predisposiciones” o “susceptibilidades” en término de probabilidades.

JAG. Libros como “El mono desnudo”, de Desmond Morris, “El pulgar del panda”, de Stephen Jay Gould, y el archiconocido best-seller de Richard Dawkins, “El gen egoísta” tratan, de modo ameno y entretenido, a la par que con rigor científico, cuestiones como la evolución de las especies, la paleontología o la genética, y tienen una más que aceptable acogida del Gran Público. ¿No cree que el científico debería poner más a menudo los pies en la tierra para desarrollar una labor divulgativa que contribuiría al acercamiento de la ciencia a la sociedad?

JRL. Ya he hecho referencia antes a la divulgación científica. Lo que ocurre es que hay muchos magníficos científicos que ni oralmente ni por escrito saben divulgar su ciencia, lo mismo que siendo buenos científicos son malos profesores.

JAG. En el libro “El gen egoísta” la teoría que su autor trata de desarrollar viene a decir algo así como que la gallina es la herramienta que tiene el huevo para dar lugar a otro huevo (famoso aforismo de escritor inglés Samuel Butler), pero llevado a la genética. Es decir, un organismo vivo no es más que lo que estructuralmente su material genético le exige que sea. ¿Considera usted que esta afirmación nos deja indefensos en cuanto al comportamiento humano se refiere? ¿Qué lugar ocuparía la ética y la moral, si al fin y al cabo no somos nada más que la consecuencia de lo que nuestros genes precisan para perpetuarse?

JRL. Su pregunta resulta un tanto reduccionista y frustrante si las cosas fueran al pie de la letra como usted la plantea. Cuando se produce la fecundación de dos gametos se forma un cigoto que, tras un maravilloso proceso de desarrollo genéticamente controlado, dará lugar a un individuo de la especie a la que pertenecen los gametos en cuestión: a un ratón, a un perro o a un ser humano, según el caso. Respondiendo en forma parecida a una cuestión anterior que usted me ha planteado en esta entrevista, la información genética que tiene ese organismo en desarrollo le capacita a ser lo que es y comportarse como tal. El ser la consecuencia, entre comillas, de nuestros genes no nos impide desarrollar nuestros atributos morales.

JAG. Han pasado poco más de sesenta años desde que Avery, MacLeod y McCarty demostraran que el “principio transformante” responsable del fenómeno de transformación bacteriana era el ácido desoxirribonucleico, es decir, que el ADN es el material hereditario. Unos pocos años después un jovencísimo Watson (sólo tenía 25 años por entonces) y el científico británico F. Crick publican el modelo estructural de la doble hélice en la revista “Nature”. Desde entonces la Genética ha avanzado a pasos agigantados y a un ritmo vertiginoso. ¿Prevé que el futuro más inmediato sea tan “generoso” en cuanto a grandes descubrimientos o desarrollo de técnicas fundamentales en la Ingeniería Genética se refiere?

JRL. Sí. La regla de oro de la investigación tiene tres componentes: 1) Hacer una pregunta importante; 2) elegir la especie biológica idónea para tratar de responderla, y 3) utilizar la metodología conceptual e instrumental más adecuada. En cierta ocasión realicé un estudio sobre la historia de la Genética a la luz de lo premios Nobel, dándose la casual circunstancia de que la Genética empezó con el redescubrimiento de las leyes de Mendel en 1900 y la Fundación Nobel comenzó su vida en 1901, así es que se puede hacer un estudio paralelo de la historia de la Genética y los premios Nobel concedidos a científicos de diversos campos de la Genética. Hasta el año 2005 se ha concedido el premio Nobel en 31 ocasiones a 66 científicos del ámbito de la Genética, bien fuera por sus ideas geniales conceptuales que supusieron hitos importantes en la ciencia genética −como, por ejemplo, contestar a las siguientes preguntas ¿qué son los genes? ¿cómo se organizan y transmiten?¿cómo y cuándo se expresan? ¿cómo cambian?− o a científicos que introdujeron nuevas técnicas instrumentales que permitieron avanzar en nuevos campos de investigación como son, por ejemplo, las técnicas de secuenciación y de amplificación del ADN, las moléculas de ADN recombinante, la mutagénesis dirigida, los anticuerpos monoclonales o las endonucleasas de restricción. Todos los años, cuando se acercan las fechas en el mes de octubre en las que se hacen públicos los nuevos galardonados hago mi propia quiniela: yo creo que los científicos pioneros en los campos de la genómica, las células troncales embrionarias o los ratones transgénicos knockout mediante recombinación homóloga, por ejemplo, pueden ser futuros candidatos a ser galardonados con el premio Nobel.

JAG. Por último, recomiéndenos un libro, de carácter científico o no, que le haya dejado un agradable sabor de boca.

JRL. El último libro que he leído ha sido “Anatomía del fraude científico” de H. F. Judson, traducido este mismo año 2006 por Editorial Crítica. Me ha resultado muy interesante aunque deja un cierto sabor amargo por lo que supone de falta de comportamiento ético en el mundo de la investigación. Es un libro aconsejable para ser analizado y debatido en seminarios o cursos de doctorado para formar a los jóvenes que inician su carrera científica, alertándoles para que no sucumban ante las muchas presiones con las que se van a encontrar.

JAG. Muchas gracias por todo. Es un placer compartir unos minutos con alguien como usted.

JRL. Muchas gracias a usted. El placer es compartido.

lunes, 29 de diciembre de 2008

EL ESCORBUTO Y LA SUPERSTICIÓN

En la Edad Media, una enfermedad de origen desconocido y que se manifestaba con hemorragias, hipotonía muscular, mala cicatrización y aflojamiento de los dientes, dio lugar a un gran número de muertes, especialmente entre las tripulaciones de los barcos. Algunos consideraban que se trataba únicamente de una enfermedad de marineros hasta que se descubrió que era endémica en algunas regiones, especialmente durante el invierno. Recibió varios nombres que aludían a su fatalidad como “la peste del mar”, pero pronto fue bautizada con el nombre con el que hoy la conocemos: escorbuto.
Para buscar su origen la superchería popular inventó cientos de historias, como que la producía la madera de los barcos o el aire del mar. También en su tratamiento jugó un papel destacado la fabulación y así se probaron remedios peregrinos como la ingesta de granos de café, de sal o de mostaza.
A mitad del siglo XVIII un médico de la marina inglesa realizó una serie de ensayos con marineros enfermos de escorbuto para comprobar, finalmente, que éstos evolucionaban favorablemente tras incorporar a su dieta zumos de naranja y de limón. Y es que el escorbuto no era una enfermedad infecciosa, como se creía entonces, sino simplemente la manifestación de un déficit de vitamina C.
No obstante, tuvieron que pasar casi dos siglos hasta que en 1912 el bioquímico polaco Casimir Funk acuñara el término vitamina para referirse a una serie de sustancias químicas, de composición y naturaleza variada, que no pueden ser sintetizadas por el organismo –podría considerase una excepción a esta norma la vitamina D, que es sintetizada en una forma no activa y que luego madura gracias a la exposición solar- y que resultan fundamentales en el metabolismo humano.
Las primeras sustancias de este tipo que fueron obtenidas tenían en común la presencia de un grupo químico denominado amina, que se caracteriza por poseer un átomo de nitrógeno. Y fue la presencia de este grupo y su vital importancia, lo que condujo a nombrarlas como las “aminas vitales” o vitaminas. Para finales de los años cuarenta ya estaban identificadas y definidas todas las vitaminas existentes y fue entonces cuando se descubrió que no todas poseían ese grupo amina, aunque el nombre estaba ya suficientemente asentado como para no verse modificado por este hecho.
En la actualidad, los grupos químicos que presentan son sólo particularidades que definen a cada vitamina, pero no son utilizados a la hora de clasificarlas en uno u otro grupo. Para eso se utilizan las características de solubilidad, quedando así las vitaminas divididas en hidrosolubles y liposolubles. Las hidrosolubles son aquellas que se disuelven en agua y están presentas, entre otros, en alimentos como frutas y verduras. A este grupo pertenecen las vitaminas del complejo B (B1, B2, B3, B5, B6, B8, B9 y B12) y la vitamina C. Por otro lado, las vitaminas liposolubles son aquéllas que se disuelven en grasas y aceites y que, por lo tanto, se consumen junto con alimentos como el hígado o los huevos. A este grupo pertenecen las vitaminas A, D, E y K. Una diferencia importante entre las vitaminas hidrosolubles y las liposolubles es que estas últimas, gracias a que se disuelven en tejido graso, pueden ser almacenadas en el hígado, no haciéndose necesaria su ingesta diaria, mientras que las hidrosolubles no se almacenan en el organismo, lo que hace que deban aportarse con mayor regularidad.
Dado el modo de vida occidental, en la actualidad es muy poco probable que alguien pueda morir por una carencia de vitaminas, aunque en teoría esto sería posible en un caso de hipovitaminosis severa. Por otro lado, un exceso de vitaminas es lo que se conoce como hipervitaminosis. En este caso, se ha visto que dicho exceso puede resultar tóxico dependiendo del tipo de vitamina del que se trate. Así, se sabe que las vitaminas A –o retinol-, D –o calciferol- y B3 –o niacina- pueden llegar a ser muy tóxicas en exceso, mientras que otras, como la B12 –o cobalamina- no posee toxicidad incluso con dosis muy elevadas.
Hoy en día, el escorbuto es una preocupación menor en países desarrollados, pero cada vez más están apareciendo problemas de salud asociados a leves hipovitaminosis. Así, se hace necesario incidir en el hecho de que una dieta equilibrada y rica en vegetales crudos –fuente de la mayoría de las vitaminas- se hace fundamental en el desarrollo humano y en el mantenimiento de un estado saludable. La ciencia y el estado del bienestar están consiguiendo que cada vez vivamos más. Que lo hagamos, además, mejor es una responsabilidad de todos.

martes, 9 de diciembre de 2008

¿A QUIÉN ENTREVISTARÍAS?

La idea no es mía, aunque tampoco me atrevería a decir que es una idea robada. Yo diría, mejor, tomada prestada. El caso es que me gustaría, el día 1 de cada mes, colgar en el blog una entrevista hecha a un científico notable que trabaje en un centro de investigación de primera línea.

La entrevista la formarían 8 ó 10 preguntas cortas sobre el estado de la investigación en España, la divulgación, su experiencia personal y algunas cuestiones cuyas respuestas arrojen luz y conocimiento sobre un tema concreto.

Por eso, te pido tu ayuda. ¿Tú a quién entrevistarías? ¿Qué le preguntarías a ese científico notable? Deja aquí tus preguntas y trataré de encajarlas en el puzzle de cada entrevista.

lunes, 1 de diciembre de 2008

MARX Y EL OPIO, INTERPRETANDO LA HISTORIA

Karl Marx nació en la Alemania de principios del XIX –en el, por entonces, Reino de Prusia-, en el seno de una familia judía de clase media y descendiente de una importante línea de rabinos. Nada hacía pensar que el pequeño Karl, un joven tímido y brillante, pudiera acabar convirtiéndose en una de las figuras más importantes en la historia del pensamiento político. Y es que hace apenas veinte años, la mitad de la población vivía aún en países cuyos regímenes políticos decían estar inspirados en sus pensamientos, así como la mayoría de los movimientos guerrilleros actuales enarbolan la bandera del Marxismo como si esto los dotara de una justificación que no son capaces de encontrar de otro modo.
Los dos libros más importantes que Marx publicó fueron, sin duda, El manifiesto comunista y El Capital. El primero de ellos, un escrito en el que se asientan las principales ideas comunistas que fue elaborado por encargo para la Liga de los Comunistas en colaboración con su gran amigo, el empresario Friedrich Engels, mientras que el segundo es un tratado de economía política en cuya edición también tuvo mucho que ver su compañero de batallas. Pero hay una frase que ha pasado a la historia ligada indisolublemente a la figura de Marx y que curiosamente no aparece en ninguno de estos dos libros. La frase en cuestión es “La religión es el opio del pueblo” y el ideólogo alemán la escribió como prólogo para la Crítica de la Filosofía del Derecho, de Hegel.
No han sido pocos los que han utilizado esta frase como arma arrojadiza, aunque también es cierto que la mayoría de éstos no conoce en profundidad el pensamiento de Marx ni han leído sus escritos. Es innegable el sentido crítico de esta frase para con la religión, pero hay que saber que el fundador de la teoría comunista no la consideraba una “conspiración clerical”, tal y como hacía la filosofía de la Ilustración. Para Marx la religión –incluso reconociéndole la importancia de su papel en la época medieval- alienaba la esencia humana como hacía el opio, que a mitad del siglo XIX era de uso legal y se administraba como analgésico, para tratar el cólera o incluso como anestésico, en forma de morfina que, por cierto, recibe este nombre en honor a Morfeo, figura mitológica que representaba en la antigua Grecia al dios de los sueños.
Y es que por estas fechas, mediados del XIX, la anestesia empezó a utilizarse en procesos quirúrgicos y extracciones odontológicas. Hoy en día, gracias al uso de nuevos fármacos y a los avanzados sistemas de monitorización, la anestesia, además de haberse convertido en un elemento imprescindible para la medicina, ha adquirido unos niveles de seguridad altísimos habiéndose reducido en gran medida las complicaciones que hace apenas unos años ésta producía.
En la actualidad se diferencia entre tres tipos de anestesia: la local, que elimina la sensación de dolor en una zona concreta del cuerpo; la regional, que la elimina de una región o varios miembros del cuerpo –dentro de ésta se encuentra, por ejemplo, la epidural-; y la general, que da lugar a un estado de inconsciencia. Además del mencionado estado de inconsciencia, toda anestesia general debe garantizar dos componentes básicos como son la amnesia y la analgesia. Por ello, en anestesiología se utilizan fármacos hipnóticos, analgésicos y relajantes musculares.
Los hipnóticos son fármacos que duermen al paciente, evitan la angustia y producen cierto grado de amnesia. Entre éstos destacan el halotano, uno de los más utilizados históricamente, aunque en la actualidad su uso en países desarrollados es mínimo, y el óxido nitroso, o gas de la risa, que ya fue utilizado como sedante por el dentista estadounidense Horace Wells en 1844.
Por otro lado, los fármacos analgésicos buscan la abolición del dolor y los que se utilizan en anestesiología suelen ser derivados naturales del opio como la morfina, aunque también se utilizan otros, sintéticos, que mimetizan el efecto opiáceo, con mayor potencia.
La inmovilidad del paciente se consigue gracias al uso de relajantes musculares derivados del curare, sustancia obtenida a partir de una planta que abunda en la cuenca del Amazonas y que ha sido utilizada durante muchos años por poblaciones indígenas para inmovilizar a sus presas. Con estos fármacos se consigue además reducir la resistencia de las cavidades abiertas por la cirugía y permitir la ventilación mecánica artificial.
Cuando Marx habló de la religión como el opio del pueblo sólo quería decir que ésta es capaz de adormecer el natural espíritu revolucionario del ser humano. Pero hoy eso parece no importar. Cada uno hace de esta frase su baluarte, como ha pasado tantas veces con el propio Marxismo.

miércoles, 26 de noviembre de 2008

ANDALUCES DEL FUTURO

He sido seleccionado para optar al I Premio "Andaluz del futuro" en la categoría de Ciencia.

Éste es un premio convocado por el Grupo Jolly y Caja Madrid, que presenta cinco categorías: Deporte, Cultura, Ciencia, Empresa y Valores Sociales. En cada categoría han sido seleccionadas dos personas de cada una de las 8 provincias andaluzas. Ahora será un jurado especialista y los internautas los que decidan quién será el ganador final. Por eso, te pido que entres en la página del premio (http://especiales.grupojoly.com/andaluces_futuro/formulario.php) y votes por mi candidatura sólo si crees que se merece el premio.

Muchas gracias.

martes, 25 de noviembre de 2008

JUAN GOYTISOLO Y ALMERÍA


Juan Goytisolo fue galardonado ayer con el Premio Nacional de las Letras Españolas correspondiente a 2008. El Premio lo concede el Ministerio de Cultura para distinguir el conjunto de la labor literaria de un autor español, escrita en cualquiera de las lenguas españolas, y a mí, en lo personal, me enorgullece que un escritor tan vinculado con Almería y tan comprometido con la época que le ha tocado vivir reciba un premio así.

Él dice que “cuando pasas de los 75, no ambicionas nada. Estoy en absoluta libertad y vivo completamente al margen”, pero no somos pocos los que nos alegramos de que el reconocimiento le llegue en vida, que para los homenajes póstumos están los políticos.

Goytisolo conoce bien nuestra tierra y dos de sus libros más leídos, Campos de Níjar (1954) y La Chanca (1962), están ambientados en nuestra ciudad y provincia. En el primero, el autor narra con maestría, y con guiños que le permiten evitar la censura, un territorio de emigración, de miserias y de pobreza. En el segundo, muestra la radiografía exacta de las estrecheces de un barrio de “clase B” de nuestra capital, en los años sesenta. En éste, el destierro social y el político se conectan con finísimos hilos de genialidad para hilvanar una historia que nos lleva de la mano por las veredas de un trabajo sobrio que lo convierten en el documental de un lugar y un momento concreto.

Por todo lo que nos ha dado, muchas gracias. Y por este premio, muchas felicidades.

miércoles, 19 de noviembre de 2008

EL GENOMA DEL CÁNCER

El fin de semana pasado, al tiempo que se reunía el G20, en Washington tenía lugar uno de esos encuentros que acaban por estudiarse en los libros de historia, y si no, seguro que en los de ciencias. Y en éste sí que estaba España por derecho.
Nuestro país, junto a otros siete países de todo el mundo, acaba de constituir el Consorcio Internacional del Genoma del Cáncer, uno de los proyectos de investigación sobre la genómica de los tumores más ambiciosos que ha tenido lugar. La misión de España será secuenciar el genoma completo de más de 500 pacientes aquejados de Leucemia linfática crónica y compararlo con el mapa que ya se dispone del genoma humano con el objetivo de caracterizar las bases moleculares que predisponen a un individuo a padecer esta enfermedad, que afecta a 15 de cada 100.000 habitantes al año.
El coordinador del proyecto en nuestro país será el investigador Elías Campo, del Hospital Clinic de Barcelona, que espera, en un plazo máximo de cinco años y gracias a una inversión de algo más de 10 millones de euros, tener caracterizado un mapa genético para la leucemia. Los resultados obtenidos por nuestro país y por el resto de los países integrantes del proyecto serán publicados en Internet, para que de forma libre y gratuita puedan acceder a él tanto empresas públicas como privadas.
Sin lugar a dudas, en los tiempos que corren, noticias como ésta son un motivo de alegría. Y saber que estamos ahí, que la investigación desde nuestro país aporta su granito de arena a este ambicioso proyecto, un motivo de satisfacción.

lunes, 10 de noviembre de 2008

CUANDO DIOS DESCANSÓ

No cabe ninguna duda de que la juventud no está reñida con la genialidad. Y de dejar constancia de ello se encarga una y otra vez la historia, regalándonos ejemplos de jóvenes brillantes que han aportado al mundo sus más gloriosas obras cuando aún eran adolescentes imberbes en unos casos, incluso pueriles jovencitos, en otros. Pablo Neruda, por ejemplo, apenas había cumplido veinte años cuando se publicó la obra poética más leída de la historia, “Veinte poemas de amor y una canción desesperada”. Miguel Ángel ya había esculpido el “Cristo crucificado” a la edad de diecisiete años, y a los veinticuatro había terminado “La Piedad”, que hoy se puede contemplar en la Basílica de San Pedro, en El Vaticano, y que se erige como obra cumbre de una etapa del artista. Y qué decir de Mozart, el niño prodigio por antonomasia, que publicó sus primeras creaciones a los cinco años y que a los catorce ya había sido nombrado maestro de conciertos de Salzburgo y Caballero de la Orden de la Espuela de Oro, del Vaticano.
La ciencia tampoco está exenta de paradigmas de precocidad. James Watson, por ejemplo, tenía sólo veinticinco años cuando estableció, junto a Francis Crick, su famosa doble hélice como modelo estructural para el ADN. Y un ejemplo, quizá menos conocido, pero igualmente notable, lo presenta el estadounidense Stanley L. Miller.
Miller tenía sólo veintitrés años cuando le propuso a su director de tesis realizar un experimento con el que poder demostrar la teoría propuesta unos años antes por el científico ruso Alexander Oparin. Según esta teoría, cuando en la Tierra aún no existía ninguna forma de vida, se habrían producido una serie de reacciones químicas que dieron lugar a los primeros compuestos orgánicos a partir de compuestos inorgánicos, aprovechando la energía de los rayos ultravioleta que incidían sobre la Tierra, las descargas eléctricas que se producían en la atmósfera y la elevada temperatura a la que se encontraba nuestro Planeta. El director de Miller se mostró un tanto escéptico ya que pensaba que el ensayo no podría mostrar unos resultados concluyentes, pero el joven científico insistió y entre los dos diseñaron un experimento cuyo objetivo era simular las condiciones de la atmósfera primitiva. Así, introdujeron en un recipiente cuatro de los que fueron compuestos mayoritarios en nuestro planeta hace miles de millones de años como son el metano, el amoniaco, el hidrógeno gaseoso y el agua. Estos cuatro elementos aportan carbono, nitrógeno, hidrógeno y oxígeno, necesarios todos para la síntesis orgánica. Posteriormente, esta mezcla fue sometida a descargas eléctricas de 60.000 voltios para comprobar que se habían formado una serie de moléculas tales como ácido acético, glucosa o algunos aminoácidos. Así quedó demostrado el origen inorgánico de las moléculas orgánicas, adquiriendo aquella mezcla de elementos químicos el nombre de “caldo primordial” o “sopa de Oparin”.
Contrariamente a lo que pensaba el director de Miller, el experimento resultó concluyente. Pero de ahí a demostrar el origen de la vida quedaba un largo trayecto. Establecer la línea que llevó a unas simples moléculas a organizarse para formar una célula implica, necesariamente, la elaboración de una serie de hipótesis que deben ser capaces de ligar la aparición de los ácidos nucleicos a la aparición de las primeras reacciones metabólicas. En la actualidad se acepta como válido el conocido como “modelo del mundo de ARN”. Según esta teoría, el ARN –o algún pariente muy cercado a él- fue el primer ácido nucleico que apareció y lo hizo de forma natural y espontánea, como una simple asociación de moléculas que llegó a adquirir la capacidad de autorreplicarse. Posteriormente, algunos lípidos, dadas sus características químicas –cabeza hidrofílica y cuerpo hidrofóbico- se unieron para formar microesferas, que resultaban estructuras mucho más estables, energéticamente hablando. Cuando estas microesferas captaron en su interior a las primeras moléculas de ARN, se puede decir que apareció la primera protocélula, que pudo crecer y reproducirse gracias a la capacidad que fue adquiriendo de transformar la energía externa en energía interna para dar lugar al metabolismo.
El origen de la vida en la Tierra ha suscitado un gran número de campos de investigación a lo largo de la historia. Y no sólo hablamos de campos científicos. Durante mucho tiempo fue la religión quien impuso su teoría creacionista ilustrada en el libro del génesis. Para ella, el séptimo día Dios descansó. Para la ciencia, fue entonces cuando todo empezó.

lunes, 27 de octubre de 2008

EL CICLISMO DESPUÉS DE LA EPO

La bicicleta, tal y como la entendemos hoy, con su sistema de transmisión en cadena, está a punto de cumplir ciento veinticinco años. En este tiempo, poco ha cambiado. Al menos en lo básico. Y es que la introducción de este elemento, utilizado como medio de transporte ecológico y económico, como módulo deportivo o como instrumento de ocio, ha influido en los cambios sociales y culturales que se han dado desde principios del siglo XX. En la actualidad hay más de ochocientos millones de bicicletas en el mundo y en países como China o India, se erige como el principal medio de transporte.
En 1903, apenas veinte años después de que el velocípedo se transformara en la moderna bicicleta, un periódico francés –L´Auto-, para adquirir más repercusión, crea la primera carrera que tiene previsto recorrer el país, creando así la ronda ciclista más mítica y de mayor repercusión en la historia de este deporte: el Tour de Francia. En aquella primera edición tomaron la salida 60 corredores que recorrieron una media de 400 kilómetros cada uno de los seis días de competición. Maurice Garin, un deshollinador italiano fue el primer ganador del Tour, un hecho que repetiría en la segunda edición de la carrera, pero de cuyo título sería desposeído por cometer ciertas irregularidades. Y es que parece ser que en ambas ediciones había corredores que hacían parte del recorrido en coche o en tren, e incluso los había que arrojaban clavos a la carretera tratando de perjudicar a los demás competidores. Todo hacía indicar que aquella carrera había nacido herida de muerte y que estaba condenada al fracaso, pero entonces se invirtió un enorme esfuerzo, se endurecieron los controles, se eliminaron los tramos nocturnos y el Tour de Francia se consagró, en unas pocas ediciones, como el premio más importante en el mundo del ciclismo.
Noventa y cinco años después de aquella primera edición, en 1998, un nuevo escándalo va a hacer que tiemblen los cimientos de la carrera. Se trata del conocido como “Caso Festina”, y en esta ocasión fue la EPO, el gran fantasma del deporte actual, la que golpeó con fuerza al Tour de Francia. Médicos, masajistas, directores de equipos y corredores se vieron envueltos en un escándalo grandioso que acabó con varios de ellos detenidos y procesados. El Tour de Francia volvía a estar herido de muerte.
EPO es el nombre con el que se conoce a una hormona producida principalmente en el riñón y que se llama eritropoyetina. Esta hormona juega un papel muy importante en un proceso biológico denominado eritropoyesis, y que consiste en la producción de glóbulos rojos, cuya función en el organismo es transportar oxígeno hacia los diferentes tejidos del cuerpo. Es decir, que un aumento en la cantidad de esta hormona en la sangre se traduce en un aumento del hematocrito, que es el porcentaje del volumen de la sangre que ocupan los glóbulos rojos y que varía, en condiciones normales, entre el 40 y el 50% en hombres, y el 35 y el 45% en mujeres. Este aumento en el hematocrito permite un mayor rendimiento del deportista en actividades aeróbicas, aumentando así la resistencia al ejercicio físico.
Una forma natural de producir EPO es mediante el entrenamiento en zonas de gran altitud. Y esto es así ya que en estas zonas la cantidad de oxígeno disponible en el aire es menor que aquella que podemos encontrar en zonas que se encuentra al nivel del mar, y se sabe que la producción de eritropoyetina se ve estimulada por la reducción del oxígeno, mediante la expresión, a nivel celular, de una proteína que ejerce de receptor específico para la hormona.
El problema del uso ilegal de estas sustancias es que, algunos deportistas, dada su alta capacidad de entrenamiento y unas características innatas, presentan un número de pulsaciones muy bajas (Indurain, por ejemplo presentaba, en reposo, menos de 40 por minuto), así que un aumento en la cantidad de glóbulos rojos en sangre puede hacer que ésta se haga más “densa” y que esta densificación termine en un colapso circulatorio que podría costarle la vida.
En aquella edición de 1998 el ganador del Tour de Francia sería Marco Pantani, quien varios años después aparecería muerto, en la habitación de un hotel, debido a un paro de corazón provocado, según la versión oficial, por su adición a la cocaína. El Tour se recuperó como pudo de aquel golpe, como lo ha hecho de otros muchos, pero la sombra del dopaje persigue a los ciclistas más allá de los controles que tratan de evitar la trampa. En última instancia es la responsabilidad de cada uno la que debe imponer el sentido común, y el fair play el que debe imponer la lealtad en el deporte.

martes, 21 de octubre de 2008

Carlos Contreras y el Resumen del Silencio

Hace unos meses hablábamos en este mismo lugar de Carlos Contreras, un joven escritor que ha ganado, entre otros, el Premio de las Letras Jóvenes Castilla y León, en la modalidad de poesía, y el Premio de Teatro Arte Joven de la comunidad de Madrid. Pues bien, Carlos vuelve a ser noticia. Y es que nuestro amigo ha ganado, con su obra "Resumen del Silencio", el Premio Leonor de Poesía, uno de lo más importantes del panorama internacional.

El Premio Leonor viene celebrándose anualmente desde hace más de veinticinco años y lo convoca la Diputación Provincial de Soria, a través de su Departamento de Cultura, premiando con diez mil euros a la colección de poemas que mayor calidad atesore.

Este año, el jurado ha destacado que “la obra del burgalés es un libro inteligente y original, donde el poeta juega con la paradoja, utilizándola como reflejo del propio sentido y del laberinto existencial".

Por todo ello, damos desde aquí nuestra más sincera enhorabuena a Carlos, a quien deseamos lo mejor en adelante. Un abrazo, amigo.

miércoles, 15 de octubre de 2008

Millás, el Planeta y el Nacional: ¿Incompatibles?

Ganar un premio literario como el Planeta, para algunos –los más puristas-, puede resultar una mancha en la carrera de un escritor. Y es que para éstos, los premios no tienen nada que ver con la literatura; al menos, los premios como éste. Sin lugar a dudas, el Planeta se ha convertido en un fenómeno social y mediático sin parangón en el que además, una obra literaria es elegida como el próximo best-seller del panorama editorial en nuestro país. Eso es indudable y aceptado con resignación o bendita devoción, según sea el caso, por casi todos. Y como éste, podríamos enumerar un alto número de premios, todos ellos auspiciados por las más importantes editoriales que han visto así una forma directa de contactar con jóvenes escritores y futuros valores, y publicitar, de paso, a los que tienen en nómina.
Pero hay un premio que parece escapar a la sombra de la duda. Se trata del Premio Nacional de Narrativa. Éste no está convocado por editorial alguna –lo convoca el Ministerio de Cultura– y tampoco entre los integrantes del jurado se encuentra nadie del mundo empresarial. El jurado de este año ha estado integrado por un miembro propuesto por la RAE, otro propuesto por la Academia gallega y otro por la vasca, uno del instituto de estudios catalanes, un representante de la Asociación Colegial de Escritores, otro de la Asociación Española de Críticos Literarios, un miembro elegido por la Conferencia de Rectores de Universidades Españolas, otro por la Federación de Asociaciones de Periodistas de España, un representante del Ministerio de Cultura y los dos últimos ganadores del premio, Vicente Molina Foix y Ramiro Pinilla García.
Casi nadie duda de la objetividad del fallo de Premio Nacional de Narrativa, ya que no sólo viene abalado por la credibilidad del jurado, sino que año tras año, los premiados y sus obras justifican la dignidad del que parece ser el único premio literario limpio en España. Y es que éste es de esos premios que se engrandecen por la lista de premiados y no al revés. Así, títulos como “El hereje”, de Delibes, “Obabakoak”, de Bernardo Atxaga, “Los girasoles ciegos”, de Alberto Méndez o “Galíndez” de Vázquez Montalbán, sólo por citar a algunos –aunque la lista la continúan escritores como Luís Goytisolo, Cela, Luís Landero, Muñoz Molina o Francisco Ayala-, dan lustre al inventario de premiados por el Ministerio para alborozo de todos, incluso de los más puristas.
¿Pero qué pasa cuando un mismo libro gana un premio tan denostado como el Planeta y a la vez otro tan alabado como el Nacional de Narrativa? Pues eso acaba de pasar. El culpable ha sido Juanjo Millás y el responsable de tal disonancia, su libro “El Mundo”. Y lo peor es que no es la primera vez que pasa. En 1992 Muñoz Molina consiguió el mismo despropósito con “El jinete polaco”. También es verdad que no faltará quien diga que el Nacional ha querido subirse al carro mediático o que a partir de ahora el estigma de la comercialidad le sangrará cada año, por estas fechas.
Parece ser que Javier Marías y su novela “Veneno y sombra y adiós” ha sido los grandes perjudicados por la decisión del Ministerio. En la lista de premios de Marías podemos encontrar el Nacional de Periodismo Miguel Delibes, el Fastenrath de la RAE, el Rómulo Gallegos o el de la crítica, pero no encontraremos el Planeta o el Primavera. ¿Pero esto lo hace mejor escritor? Yo opino que no. Incluso cabe preguntarse, ¿apartarse de estos premios los aleja también del deseo comercial? Mi respuesta es que no. ¿Tú que opinas…?

martes, 14 de octubre de 2008

LUTHER KING, UN SUEÑO Y SU GRUPO SANGUÍNEO

El 28 de Agosto de 1963 tuvo lugar el que muchos han calificado como el mejor discurso del siglo XX. Se dio en las escalinatas del Monumento a Lincoln, en Washington, y a él asistieron unas 250.000 personas que se manifestaban por los Derechos Civiles. Se celebraba la que había dado en llamarse la Marcha por el Trabajo y la Libertad, y el objetivo era alcanzar el fin de la segregación racial en el país. El orador fue Martin Luther King y su famoso discurso ha pasado a la historia como el sueño del defensor de los derechos civiles de los afroamericanos. Y es que Luther King pronunció la frase “Yo tengo un sueño..." hasta ocho veces para describir la imagen de unos Estados Unidos en los que alcanzar el tan traído y llevado sueño americano no dependiera del color de la piel.
Habían pasado cien años desde que se firmara la Proclamación de Emancipación, mediante la que se otorgaba la libertad a los esclavos, pero la realidad es que la raza negra seguía careciendo de ciertos derechos fundamentales. Entonces apareció la figura de un joven reverendo negro convencido de que era el momento del cambio. El mensaje de Luther King era pacifista, pero contundente. Rechaza la violencia, pero invitaba a la desobediencia civil. Defendía la filosofía de Gandhi en la India a la misma vez que asumía la responsabilidad moral de desobedecer las leyes injustas. Y es que su mensaje partía de la idea de que la injusticia en cualquier parte es una amenaza para la justicia en todas partes.
Luther King se convirtió en la persona más joven en obtener el Premio Nobel de la Paz, a sus treinta y cinco años, por defender un sueño. Y éste no era otro que poder ver algún día a los pequeños negros, niños y niñas, conviviendo sin prejuicios con los pequeños blancos, niños y niñas.
Han pasado cuarenta años de la muerte de Luther King y muchas cosas han cambiado desde entonces. No cabe duda de que los derechos de los afroamericanos han alcanzado cotas que resultaban impensables hace apenas unas décadas, aunque los prejuicios de unos pocos siguen haciendo que el sueño de Luther King continúe siendo eso, un sueño. En este tiempo no sólo la sociedad ha avanzado sino que también lo ha hecho la ciencia, y mucho. La secuenciación del genoma humano, en este sentido, ha revelado que las diferencias entre negros y blancos son mínimas y en absoluto justifican una actitud diferente frente a ningún individuo por el color de su piel.
A nivel bioquímico podríamos decir que existen multitud de criterios que nos permitirían asociar a diferentes individuos y éstos nada tienen que ver con la pigmentación de la epidermis. Una de estas diferencias entre individuos podríamos encontrarla en el grupo sanguíneo, cuya incompatibilidad da lugar a un rechazo hiperagudo en los transplantes o transfusiones de sangre. El grupo sanguíneo de un individuo viene determinado tanto por el sistema ABO como por el factor Rh.
El sistema ABO lo que indica es la presencia o ausencia de ciertas proteínas en la superficie de los glóbulos rojos, de manera que un individuo del grupo A va a tener la proteína A en la superficie de sus glóbulos rojos, un individuo del grupo B va a tener la protenína B, uno del grupo AB va a tener las dos, y una persona del grupo O no va a tener ninguna. Esto, en principio, no debería constituir ventaja ni inconveniente alguno, pero el problema aparece debido a que los individuos del grupo A, además de poseer esta proteína en sus glóbulos rojos, presentan anticuerpos para la proteína B, al igual que una persona del grupo B presenta anticuerpos para la proteína A, y son estos anticuerpos los responsables de la respuesta inmune. Como es fácil imaginar, las personas del grupo AB no tienen anticuerpos para ninguna de estas proteínas y es por ello por lo que pueden recibir sangre de cualquier individuo, constituyéndose como los receptores universales, mientras que los individuos del grupo O, al no poseer en la membrana de sus glóbulos rojos ninguna proteína frente a la que poder reaccionar un tipo determinado de anticuerpo, se convierten en donadores universales.
Por otro lado, el factor Rh viene determinado por la ausencia o presencia de una serie de proteínas llamadas factores Rhesus. Un individuo Rh positivo las presenta, mientras que un Rh negativo carece de ellas y podría formar anticuerpos contra el factor Rh, si se expusiera a sangre Rh positiva.
Hoy en día, a ninguna persona cabal se le ocurriría discriminar a otra por su grupo sanguíneo. Probablemente llegue el día en que también carezca de todo sentido hacerlo por el color de la piel. Mientras, la ciencia pone sobre la mesa las herramientas de las que dispone y será entonces la razón quien deba aprender a usarlas.

miércoles, 8 de octubre de 2008

JOAN MARGARIT, PREMIO NACIONAL DE POESÍA CON "CASA DE MISERICORDIA"

La Casa de Misericordia era una institución benéfica dedicada al cuidado de niños desamparados. Lo curioso es que la mayoría de las solicitudes de ingreso pertenecían a viudas de asesinados en la represión del final de la guerra civil, que pedían el ingreso de sus hijos por imposibilidad de mantenerlos. Desde la perspectiva de nuestro tiempo podría parecernos un acto cruel, pero como el propio Margarit escribe en el epílogo de su libro Casa de Misericordia (Visor, 2007), "la intemperie era mucho más espantosa".

El título del libro es el de uno de los poemas que contiene y dice así:


Casa de Misericordia

El padre fusilado.
O, como dice el juez, ejecutado.
La madre, ahora, la miseria, el hambre,
la instancia que le escribe alguien a máquina:
Saludo al Vencedor, Segundo Año Triunfal,
Solicito a Vuecencia poder dejar mis hijos
en esta Casa de Misericordia.

El frío del mañana está en la instancia.
Hospicios y orfanatos fueron duros,
pero más dura era la intemperie.
La verdadera caridad da miedo.
Igual que la poesía: un buen poema,
por más bello que sea, será cruel.
No hay nada más. La poesía es hoy
la última casa de misericordia.

lunes, 6 de octubre de 2008

QUÍMICA, de Sofía Rhei

El miércoles 8 de octubre de 2008, a las 20:00 horas, tendrá lugar la presentación de Química, de la poeta Sofía Rhei, en el Salón Noble de la Delegación del Gobierno -Paseo de Almería, 68-.



El libro ha sido publicado por El Gaviero Ediciones, dentro de su colección Troquel, con la colaboración del Instituto Andaluz de la Juventud de Almería.


¡¡Si el amor es cuestión de química, este es su manual!!


SOFÍA RHEI (Madrid, 1978) cultiva e injerta libros-objeto semejantes a plantas. Colecciona semillas. Ha inventado al menos un juego. Ha expuesto poemas en varias revistas: Casatomada, Cuadernos del matemático, Incomunidade...; y en antologías como Antolojaja, Todo es poesía menos la poesía, o Aldea poética III. En 2005, La Bella Varsovia publicó su libro Las flores de alcohol, y en 2006 Ediciones del Primor ha sacado a la luz Versiones. Acaba de ganar el IV Premio de Poesía Javier Egea con el poemario Otra explicación para el temblor de las hojas. El laboratorio de El Gaviero Ediciones ha sido el escenario elegido para este experimento cienífico-poético titulado Química.

martes, 30 de septiembre de 2008

LA PARTÍCULA DE DIOS Y LA MANO DEL HOMBRE

Cuando la ESO aún no había conseguido desplazar al Bachillerato Unificado Polivalente de los planes del sistema educativo español nos enseñaban que las partículas subatómicas y, por lo tanto, más pequeñas que se conocían eran los protones, los neutrones y los electrones. Pero aquellos eran otros tiempos. Nadie había escuchado hablar del cambio climático, no se nos pasaba por la cabeza la idea de ir por la calle manteniendo una conversación telefónica sin un cable enganchado a la pared y hablar de clonación era más propio de la literatura de ciencia ficción que de la realidad. Pero como digo, eran otros tiempos.
Hoy, a los protones, neutrones y electrones se les sigue llamando partículas subatómicas, porque es cierto que son más pequeñas que un átomo, pero se han descubierto otro tipo de partículas aún más pequeñas a las que, en conjunto, se les ha dado el nombre de partículas elementales y que, hasta donde sabemos, no están formadas por partículas más simples. Se conocen dos tipos de partículas elementales: los fermiones (quarks y leptones) y los bosones. Las diferencias entre éstas se definen en términos relativos a la física de partículas como el espín, que es una propiedad física relacionada con la simetría de rotación que tiene cada partícula.
En la actualidad, el modelo estándar de la física de partículas ha descrito más de veinte partículas elementales diferentes –entre fermiones y bosones-. De todas estas partículas elementales existe una que no ha sido observada hasta el momento y que juega un papel muy importante en la explicación del origen de la masa. Se trata del Bosón de Higgs. Este bosón a veces también es llamado la “Partícula de Dios”, a raíz de la publicación de un libro de divulgación científica escrito por el físico estadounidense Leon Lederman, quien obtuviera en 1988 el Premio Nóbel por su investigación sobre un tipo de fermiones llamados neutrinos.
Como decimos, el Bosón de Higgs no ha sido observado hasta el momento, y esto es así porque es una partícula muy inestable cuya hipotética existencia debió darse solamente hasta una fracción de segundo después del Big Ban. Evidentemente, no es posible volver a aquel momento de la historia del Universo ocurrido hace unos trece millones de años, por lo que observar el Bosón de Higgs pasa, ineludiblemente, por reproducir las condiciones energéticas que se dieron en aquel momento, y eso sólo es posible en un acelerador de partículas, aunque estas condiciones sean idénticas sólo a escala subatómica.
Recientemente se ha construido en el CERN –la Organización Europea para la Investigación Nuclear-, situado en la frontera entre Francia y Suiza, el LHC, que ya ha sido denominado como el mayor experimento científico de la historia. Esta afirmación puede sonar pretenciosa pero sus dimensiones, 27 kilómetros de circunferencia, la inversión realizada, unos 2500 millones de euros, y el amplio equipo investigador que ha trabajado y trabaja en todo el proceso de diseño, montaje y desarrollo experimental, más de 2000 físicos de 34 países, dan una idea de la magnitud de esta investigación.
El LHC –Gran Colisionador de Hadrones- es un acelerador de partículas diseñado para hacer colisionar protones que habrán sido acelerados hasta alcanzar una velocidad muy próxima a la de la luz y en cuya colisión se podrán reproducir aquellas condiciones energéticas dadas en el instante posterior al Big Ban.
Algunos alarmistas han puesto el grito en el cielo y han predicho, no sólo la destrucción de la Tierra sino del Universo entero debido al funcionamiento del LHC y la posibilidad de que se formaran agujeros negros inestables. Al respecto, el CERN ha realizado un estudio que ha sido llevado a cabo por un grupo de seguridad compuesto por científicos independientes y en éste afirma, que si bien es cierto que el Gran Colisionador de Hadrones puede alcanzar una energía que ningún otro acelerador de partículas ha alcanzado antes, la naturaleza produce a diario energías mayores en colisiones de rayos cósmicos, por lo que las colisiones del LHC no representan peligro alguno y no hay razones para preocuparse.
Otros, simplemente, critican la enorme inversión realizada en un experimento como éste. Para ellos es posible que ni siquiera la observación del “Bosón de Higgs” ni la respuesta a otras cuestiones relativas a la masa de las partículas justifique el gasto. Es posible. Pero la realidad es que la historia de la ciencia se construye de momentos como el que ahora estamos viviendo y de la curiosidad por conocer. Y eso es imparable.

jueves, 18 de septiembre de 2008

PRUEBAS DE ADN. IDENTIFICACIÓN GENÉTICA.

El 20 de agosto de 2008 tuvo lugar uno de los accidentes más importantes que la aviación civil española ha sufrido en su historia. El vuelo JK 5022 se disponía a despegar con 162 pasajeros y 10 tripulantes a bordo cuando algo falló. La situación se saldó con la muerte de 154 personas y la angustia que sucede a cualquier desgracia de este calado. La identificación de los cuerpos duró nueve días y se hizo necesario, dado el estado en el que se encontraban algunos de los restos, recurrir a las pruebas de ADN para llevar a cabo con éxito dicha identificación.
Y es que las pruebas genéticas se han convertido en un procedimiento habitual en aplicaciones tan diferentes como la medicina-forense, la criminología o los test de paternidad, desde que en la década de los ochenta se empezaran a utilizar en los Estados Unidos y en Inglaterra.
En todas y cada una de los varios billones de células con núcleo que componen nuestro organismo podemos encontrar una copia de todo nuestro material genético, es decir, de todo nuestro ADN. Por eso, a veces basta con un poco de semen, con un pelo o con restos de saliva depositados en una colilla para identificar a un individuo gracias a una prueba genética.
El genoma de un individuo tiene, aproximadamente, unos 3200 millones de pares de bases –que son las unidades estructurales que dan lugar al ADN-, que contienen unos 20000 genes. Cada uno de estos genes, y después de dos procesos celulares denominados replicación y transcripción, va a dar lugar a una proteína. Es decir, cada proteína de las presentes en el organismo, bien sea con función enzimática, hormonal o estructural, se encuentra codificada en un gen. Pero no todo el ADN presente en nuestro genoma codifica una proteína. De hecho, la mayoría del ADN contenido en cada núcleo de una célula humana es ADN no codificante, es decir, ADN que no da lugar a ninguna proteína.
Durante un tiempo, a este ADN no codificante se le llamó ADN “basura”, ya que si no era capaz de dar lugar a ninguna proteína y además no se encontraba sometido a ningún tipo de presión selectiva –y esto se comprobó al observar que este ADN era mucho más susceptible de sufrir mutaciones que el ADN codificante y que éstas se mantuvieran generación tras generación-, entonces este ADN no codificante no debía servir para nada. Pero estudios recientes han revelado que este ADN posee funciones diversas como la de regular la expresión de los genes en unas u otras circunstancias o en unos u otros tejidos.
En cualquier caso, e independientemente de la función que desempeñe este ADN no codificante, lo que es una realidad es que sufre una mayor variación entre individuos de la que sufre el ADN codificante. Esta circunstancia, junto al hecho de que el ADN no codificante constituye el 90 % del ADN total, lo convierte en un candidato perfecto para utilizarlo en la identificación de un individuo, a nivel genético. Y dentro de este ADN no codificante, las secuencias utilizadas para los análisis de ADN son las llamadas microsatélites, SSR o STR (del inglés Short Sequence Repeat y Short Tandem Repeat, es decir, repetición de secuencia corta o repetición en tándem corta). Estas secuencias son repeticiones de motivos de 1 a 6 nucleótidos que se disponen uno tras otro.
Lo que se hace en las pruebas de ADN es amplificar estos microsatélites utilizando una técnica denominada PCR (Reacción en Cadena de la Polimerasa) y posteriormente separar todos los fragmentos obtenidos mediante una electroforesis, técnica que aprovecha la diferente movilidad que presenta el ADN, en función de su tamaño, al atravesar un campo eléctrico a través de una matriz porosa. Y es que lo que va a diferenciar a un individuo de otro es el número de repeticiones que presenta para cada microsatélite. Así, una vez analizados un número determinado de microsatélites –que puede rondar los 20-, obtendremos un perfil, también llamado huella genética, que será único para cada individuo, pero del que compartirá ciertas características tanto con su padre como con su madre.
La comparación de los genomas completos de dos personas diferentes presenta una similitud del, aproximadamente, 99,8 %. Si nos fijáramos únicamente en el ADN codificante, la similitud sería aún mucho mayor. Por suerte para los investigadores, el análisis de regiones hipervariables del ADN no codificante permiten identificar a cada individuo, con una fiabilidad que nunca debe ser menor del 99,99 %, para lo que se deben analizar un número alto de microsatélites.

jueves, 11 de septiembre de 2008

EL GAVIERO VUELVE CON FUERZA


El Gaviero Ediciones es una de esas extrañas especies dentro de la fauna editorial de nuestro país que ha apostado por una literatura de calidad y una cuidada edición para cada uno de sus trabajos. Una apuesta inteligente y crítica que hace grande a los que publican con ella y que crece con cada nuevo trabajo.



Ahora vuelven con dos títulos nuevos. Se trata de 'Los Inmortales', de Carles Duarte, y 'Alguien anda en la escalera de incendios', de Harkaitz Cano. Estoy seguro de que pasear por sus páginas, tranquilo, sin prisa, como en una tarde de otoño por la arena de la playa, para encontrarse con una poesía de rumores y de elixires, será un ejercicio al que no me resistiré. Y espero que tú tampoco. Si ya has leído alguno de estos dos libros, puedes comentarlo aquí.





miércoles, 3 de septiembre de 2008

CÉLULAS PROCARIOTAS Y EUCARIOTAS. LA NECESIDAD DEL MUTUO PROVECHO.

En 1665, el científico británico Robert Hooke –el mismo responsable de la invención del muelle gracias a su teoría acerca de la proporcionalidad, en un cuerpo elástico, entre el estiramiento de éste y la fuerza que se ejerce sobre él- fue el primero en utilizar la palabra célula. Y lo hizo para referirse a las pequeñas cavidades que observó, con un rudimentario microscopio, al examinar una corteza de alcornoque y comprobar que el caparazón del corcho estaba formado por diminutas cavidades que le recordaban a las celdas de un panal. Pero debieron transcurrir casi ciento cincuenta años para tener la certeza de que todo organismo vivo, independientemente de su tamaño y forma, estaba formado por células.
La teoría celular, aceptada hoy en día por toda la comunidad científica y propuesta, hacia la mitad del siglo XIX por los alemanes Theodor Schwann y Jakob Schleiden, postulaba ya entonces que todo ser vivo estaba formado por células o por los productos que éstas secretaban y que, además, toda célula procedía, por división, de otra célula. La teoría celular fue ampliamente debatida en su momento, pero los experimentos que llevó a cabo el científico Louis Pasteur, en la segunda mitad del siglo XIX, dieron lugar a su aceptación definitiva.
Hoy en día, la célula es considerada la entidad más pequeña de materia viva. Es decir, la célula constituye la unidad morfológica, funcional y genética de todo organismo, ya que, por un lado, en ésta caben todas las funciones vitales de un ser vivo y, por otro, posee toda la información hereditaria que se encuentra contenida en su ADN. Tal es así que los organismos vivos pueden clasificarse en función del número de células que los componen para quedar establecidos como unicelulares –compuestos por una única célula, como las bacterias- y pluricelulares –compuestos por más de una célula, como los animales-.
Una primera clasificación de las células las divide en procariotas, que carecen de núcleo celular, y eucariotas, que presentan un núcleo donde se encuentra el ADN. Por lo tanto, en las células procariotas, las más sencillas que existen, el ADN se encuentra disperso en el medio acuoso que presenta el interior de la célula y que se denomina citosol.
Los organismos a los que dan lugar las células procariotas siempre son unicelulares y constituyen la forma de vida más sencilla. Estas células no sólo carecen de núcleo sino que además carecen de otros orgánulos presentes en las células eucariotas y que en éstas llevan a cabo funciones tales como la respiración celular o procesos fotosintéticos.
En contraste, las células eucariotas son el paradigma de la complejidad celular. Éstas pueden dar lugar a organismos unicelulares como las levaduras, o a organismos pluricelulares como los animales o los vegetales. Especialmente en estos últimos, el grado de especialización de la célula puede ser altísimo, dependiendo, básicamente, de la función que vaya a desarrollar.
Al primer tipo de célula primitivo se le denomina progenote. Este progenote es considerado como el antecesor de los tipos celulares actuales, y si atendemos exclusivamente al hecho de poseer o no núcleo diferenciado, podríamos decir que era una célula procariota. Durante varios millones de años se fue diversificando para dar lugar a un gran número de especies procariotas cada vez más complejas y específicas. El siguiente y definitivo paso en la evolución celular fue la aparición de las células eucariotas hace unos 1.500 millones de años. La teoría hoy aceptada, conocida como teoría endosimbiótica y propuesta por la estadounidense Lynn Margulis, argumenta que algunos de los orgánulos que presentan las células eucariotas –cloroplastos y mitocrondrias- eran, en origen, organismos procariotas que fueron “captados” por otros organismos, sin que se produjera pérdida de la función original y con los que establecieron una relación de mutuo provecho. Así, la célula eucariota que hoy conocemos es el producto de aquel momento de la evolución, y encontramos dentro de las mitocondrias y los cloroplastos –aquellas procariotas captadas y que en la actualidad son orgánulos de las células eucariotas- material genético similar al de algunas bacterias.
En la actualidad se considera que la evolución se pudo dar a través de dos vías: una explicada por la teoría endosimbiótica y otra, por la autógena, que postula que algunos orgánulos se formaron en el interior de la célula eucariota. Ambas teorías no son excluyentes, sino complementarias y sólo a través de esfuerzos de cohesión será posible conocer algún día el origen de la vida.

miércoles, 27 de agosto de 2008

EL PEAJE DE LA COMODIDAD

Como ya anuncié hace unos meses, el texto presentado bajo el título “El peaje de la comodidad” y escrito por Oscar Palomares Gracia –Investigador Post-doctoral del Instituto Suizo de Investigación sobre las Alergias y el Asma (SIAF), en Davos, Suiza, y, sobre todo, buen amigo mío- y yo, había sido premiado con un Accésit en el I Concurso de Divulgación Científica de la Universidad Complutense de Madrid –convocado por la Oficina de Transferencia de Resultados de Investigación-. Pues bien, ya puedes tener acceso al texto y darme tu opinión. Aquí tienes un enlace http://www.ucm.es/info/otri/cult_cient/infocientifica/descargas/concurso%20divulgacion%2008/peaje_comodidad.pdf

martes, 26 de agosto de 2008

PROTEÍNAS Y AMINOÁCIDOS, EL SENTIDO DE LA UNIÓN

Severo Ochoa siempre se consideró un exiliado científico, no político. En cuanto estalló la guerra civil española él se vio obligado a abandonar nuestro país y comenzó a trazar la que para muchos científicos supone, incluso hoy en día, la única vía que conduce a su desarrollo pleno, el de la emigración. Severo Ochoa estudió Medicina porque entendía que éste era el camino más corto para llegar adonde su vocación le llevaba, pero nunca ocultó que su verdadero interés se centraba en el mundo de la biología. De hecho, solía bromear diciendo que no había visto a un enfermo tras salir de la universidad. Desde la facultad destacó como un alumno brillante y nada más licenciarse obtuvo una plaza de profesor ayudante junto al que había sido uno de sus profesores más notables: Juan Negrín. Y fue de vital importancia la figura de este profesor, que a la postre se convertiría en Presidente del Gobierno de la II República, a la hora de facilitar la salida de Severo Ochoa del país, ya que supuso el suyo un apoyo determinante ante la Junta de Ampliación de Estudios para que completara su formación en el extranjero. Primero pasó por Alemania, luego por Reino Unido y, finalmente, se instalaría en los Estados Unidos, donde iba a residir, junto a su esposa, durante más de cuarenta años y sería allí donde desarrollaría buena parte de sus investigaciones más destacadas.
Tras quince años residiendo en San Luís y Nueva York, el matrimonio Ochoa adquirió la nacionalidad estadounidense. Era el año 1956 y pocos después, en 1959, Severo Ochoa recibiría el Premio Nóbel de Fisiología o Medicina compartido con el que fuera su alumno, el norteamericano Arthur Kornberg, por sus descubrimientos sobre el mecanismo de síntesis del ARN -ácido ribonucleico- y del ADN -ácido desoxirribonucleico-. El gran logro del científico español fue el estudio y aislamiento de una enzima llamada ARN-polimerasa que se encarga de la síntesis del ARN, necesario para la síntesis de las proteínas.
Las proteínas son moléculas complejas formadas por la unión de un número determinado de unidades denominadas aminoácidos. Estos aminoácidos vienen determinados genéticamente y es que en el proceso de síntesis de una proteína, un gen cualquiera –ADN, al fin y al cabo- va a dar lugar siempre a un ARN asociado que se llama ARNm (ARN mensajero). Este ARNm consiste en un fragmento lineal de bases nitrogenadas –que son las unidades estructurales del ARN y que son de cuatro tipos: Adenina, Guanina, Citosina y Uracilo- que, agrupadas de tres en tres, dan lugar a una estructura denominada codón, que es la que codifica cada aminoácido.
Como existen cuatro bases nitrogenadas diferentes y teniendo en cuenta que se pueden ordenar de forma aleatoria, incluso repitiéndose una base determinada en más de una de las tres posiciones del codón, en total existen 64 tripletes posibles. De estos 64, tres codifican señales de parada en el proceso de síntesis de las proteínas, lo que quiere decir que los 61 codones restantes codifican, gracias al conocido como código genético, los 20 aminoácidos que dan lugar a las estructuras de las proteínas. Es decir, el código genético es redundante, lo que da lugar al llamado código degenerado, ya que existen codones diferentes que codifican un solo aminoácido.
Todos los aminoácidos tienen una estructura general común y lo único que diferencia a unos de los otros es la presencia de una cadena lateral específica que es la que va a hacer que existan aminoácidos polares o hidrofóbicos, apolares o hidrofílicos, con carga –positiva o negativa- o aromáticos. En la estructura de una proteína, los aminoácidos se encuentran unidos entre sí formando un enlace denominado peptídico. En última instancia va a ser la secuencia –es decir, el orden- de los aminoácidos la que determine la función de una proteína, del mismo modo que este orden va a condicionar la disposición tridimensional de ésta.
En cuanto a las funciones que desempeñan las proteínas en los seres vivos, hay que destacar que son las biomoléculas más diversas y versátiles que se conocen, pudiendo actuar, según el caso, con función enzimática, estructural, hormonal, etc.
En 1985 Severo Ochoa volvería a España para quedarse definitivamente. Para entonces, el centro de biología molecular que lleva su nombre (CBMSO, Centro de Biología Molecular Severo Ochoa) llevaba diez años funcionando como uno de los centros de mayor prestigio internacional. El CBMSO es un centro mixto del CSIC (Consejo Superior de Investigaciones Científicas) y la UAM (Universidad Autónoma de Madrid), y de él han salido grandes investigadores que han continuado el camino emprendido por Severo Ochoa.

martes, 5 de agosto de 2008

RADIACTIVIDAD HOY: CIEN AÑOS SALVANDO OBSTÁCULOS

Maria Sklodowska llegó a París desde su Varsovia natal con apenas veintitrés años. Se había matriculado en la Universidad de la Sorbona y estaba dispuesta a hacerse un hueco en un mundo de hombres. El siglo XIX estaba acabando y la Física y la Química eran dos disciplinas que no ofrecían muchas oportunidades al sexo femenino. Pero la adaptación de María fue más rápida de lo esperado y unos años después obtendría la licenciatura en Matemáticas y en Física, siendo la primera de su promoción. Para entonces, uno de sus profesores ya le había declarado su amor e iba a acabar convirtiéndose en su marido y ella, tomando de él su apellido. Desde ese momento, esta polaca universal iba a ser conocida como Marie Curie.
Marie Curie es en la actualidad la única persona que posee dos premios Nóbel en dos disciplinas científicas distintas, uno en Física y otro en Química, además de haberse convertido en la primera catedrática en la historia de la Sorbona. A pesar de todo ello, Francia escatimó honores hasta el final de sus días por lo que consideró un acto imperdonable. Y es que cometió el error de enamorarse de un hombre casado. Su marido, Pierre Curie, había muerto tras once años de matrimonio. Varios años después del trágico desenlace, Marie se enamoró de Paul Langevin, que había sido alumno de Pierre. Este romance fue aireado por la prensa y mientras la opinión pública excusó y perdonó la infidelidad del científico, nunca consintió que ella se interpusiera en aquel matrimonio.
No obstante, por lo que Marie Curie ha pasado a la historia es por su determinante contribución a la ciencia y por su espíritu altruista. Tanto es así que donó a la investigación científica el primer gramo de radio obtenido y se negó a registrar ninguna patente porque le parecía fundamental que cualquier investigador pudiera buscarle aplicaciones a la radiactividad.
La radiactividad es una cualidad que presentan algunos elementos químicos para emitir unas radiaciones particulares. Estas radiaciones son capaces de impresionar películas fotográficas o atravesar cuerpos opacos a la luz visible, lo que las hacen óptimas para su uso en medicina –radioterapia o diagnóstico con Rayos X- y en otros campos y con otros fines como puede ser la obtención de energía o la fabricación de pantallas de ordenador y aparatos de televisión.
La radiactividad se divide en natural o artificial. La natural es aquella que se encuentra en la naturaleza sin que haya existido intervención humana, y puede ser debida a la presencia de elementos radiactivos primigenios, que están en la Tierra desde el principio de los tiempos, o de materiales radiactivos cosmogénicos, que se generan por la incidencia de rayos cósmicos. Esta radiactividad natural es producida gracias a que los núcleos de ciertos átomos son inestables y se fragmentan de manera espontánea para dar lugar a otros núcleos más ligeros. La radiactividad artificial, por otro lado, se origina al bombardear los núcleos estables de ciertos átomos con partículas adecuadas. De esta manera se consiguen núcleos más pesados que suelen ser inestables y que emiten radiactividad al retirar el cuerpo emisor de las partículas de bombardeo. Este tipo de radiactividad fue descubierta por Jean Frédéric e Irène Joliot-Curie, hija de Marie y Pierre Curie.
Algunos de los elementos radiactivos naturales más importantes son el Radio-226, que se obtiene por desintegración del Uranio-238, o el Carbono-14, que es producido en la atmósfera debido al bombardeo de átomos de nitrógeno por neutrones cósmicos y utilizado para conocer la edad de muestras orgánicas de menos de 60.000 años, siendo la técnica de datación más fiable para estas muestras. Por otro lado, el elemento radiactivo artificial probablemente más conocido sea el Plutonio-239, que fue uno de los elementos expulsados a la atmósfera tras el accidente de la central nuclear de Chernobil.
Por suerte, accidentes como el de Chernobil son muy poco frecuentes y la radiactividad es usada de forma positiva en nuestra sociedad actual. Después del accidente en la central ucraniana, la radiactividad estuvo en el punto de mira de todas las críticas, pero el paso del tiempo decidió darle una nueva oportunidad. Algo parecido pasó con el amor entre Curie y Langevin. Muchos años después de aquel romance, una hija de Irène Joliot-Curie –por lo tanto, nieta de Marie Curie- se casaría con un nieto de Paul Langevin. Casualidad o destino. En la actualidad conforman un matrimonio de físicos nucleares con una bonita historia que contar a los suyos.

miércoles, 23 de julio de 2008

GENOMA HUMANO: UN PASEO POR NUESTRO ADN

A finales del mes de octubre de 2001, Francis Collins recibía una llamada mientras trabajaba en su laboratorio. Cuentan que, después de atenderla, siguió trabajando como si nada importante hubiera pasado, pero algunos de sus colaboradores adivinaron que lo que acababan de decirle tenía la suficiente trascendencia como para que el doctor Collins no dejara de mostrar media sonrisa bajo su pelirrojo bigote. “Ahora sé que todo esto tiene sentido. Nos acaban de conceder el Premio Príncipe de Asturias”, dijo con toda la naturalidad y entereza que fue capaz de reunir.
Francis Collins había sustituido a James Watson –el descubridor de la estructura del ADN- al frente del Proyecto Genoma Humano, hacía apenas un par de años. El Proyecto Genoma Humano se había convertido, para muchos científicos, en el plan de trabajo más importante de toda la historia en el campo de la biología. Había nacido en 1.990 en los Estados Unidos con una dotación de 3.000 millones de dólares y con el objetivo firme de obtener la secuencia de todo el ADN contenido en el núcleo de cada célula humana.
El ADN –ácido desoxirribonucleico- es un ácido nucleico que contiene la información genética necesaria para generar todas las estructuras que dan lugar a cada organismo, así como la información necesaria para el correcto desarrollo y funcionamiento de éste. El ADN está formado por la sucesión de cuatro unidades estructurales llamadas nucleótidos, que son moléculas orgánicas constituidas por la unión de un monosacárido llamado desoxirribosa, una base nitrogenada -adenina, timina, citosina o guanina- y un grupo fosfato. En los seres humanos, como en la totalidad de los organismos vivos, el ADN no suele existir como una molécula individual, sino que se organiza como una doble hélice –en la que los nucleótidos de una hebra se aparean con los nucleótidos de la otra de modo que cada adenina siempre va a ir unida a una timina y cada citosina a una guanina- que se enrosca sobre sí misma formando una especie de escalera de caracol.
El primer borrador del genoma humano fue terminado en el año 2003, dos años antes de lo previsto, y fue anunciado, además de por cada uno de los científicos que dirigían los dos grandes grupos, uno público y otro privado, que estaban llevando a cabo el proyecto, por los por entonces presidentes de Estados Unidos e Inglaterra, Bill Clinton y Tony Blair. Aquel primer borrador evidenció que el genoma humano estaba formado por un total de unos 3200 millones de pares de nucleótidos.
Este ADN, dentro del núcleo de cada célula humana, se encuentra organizado de tal manera que, gracias a un alto grado de compactación, se divide en 46 fragmentos denominados cromosomas. De estos 46 cromosomas, dos son los llamados cromosomas sexuales, que determinan el sexo del individuo, mientras que las 22 parejas restantes son cromosomas no sexuales –autosómicos- y son obtenidos por herencia directa, uno del padre y otro de la madre.
Una vez conocida la secuencia completa de nuestro ADN, el paso siguiente era identificar, de entre toda esa sucesión de nucleótidos, qué fragmentos daban lugar a genes. La importancia de esta identificación radica en que el gen contiene la información necesaria para la síntesis de determinadas macromoléculas con función celular específica (proteínas, ARN mensajero, etc.). Las primeras investigaciones apuntaban a un número aproximado de 90.000 genes para la especie humana, pero en la actualidad, esa cifra inicial se ha visto radicalmente reducida hasta un número mucho más próximo a la realidad y que lo sitúa en unos 25.000.
Otro hecho que sorprendió en cierta medida a la comunidad científica fue la gran cantidad de ADN intergénico que tradicionalmente había sido llamado ADN basura por no conocerse su función exacta. Aún hoy esta función no está aclarada del todo, pero lo que sí es cierto es que el término “basura” no es el más indicado para este ADN, que supone hasta el 90% del genoma y que parece jugar un papel determinante en la regulación de la expresión de los genes.
Hoy, cinco años después de conocer la secuencia del genoma humano, las investigaciones al respecto continúan. Sin embargo, hay quien piensa que se ha avanzado poco en las aplicaciones biomédicas. Uno de ellos es Francis Collins, aunque se muestra optimista de cara al futuro. El conocimiento de todo lo que rodea a nuestro complejo genoma debe llevarnos en breve a un uso adecuado en el diagnóstico y prevención de enfermedades, y, más adelante, al tratamiento de éstas. La terapia génica puede ser una realidad mucho antes de lo que imaginamos. Pero esa será otra historia y también tendrá su momento.

lunes, 7 de julio de 2008

NEANDERTALES Y CROMAÑONES: COMPARTIENDO HISTORIA

El sector siderúrgico ha tenido, desde finales del siglo XIX, una gran importancia en el desarrollo económico del País Vasco. Ya por entonces, y como consecuencia de este destacado papel de la minería y sus derivados, se decidió realizar un ferrocarril minero que conectara la línea Burgos-Bilbao con la Sierra de la Demanda, una zona de la cordillera ibérica en los límites de las provincias de Burgos, La Rioja y Soria, y de gran importancia por sus yacimientos de hierro y carbón. La obra acabó en el año 1901 y en su trazado atravesó la Sierra de Atapuerca mediante una trinchera que dejó al descubierto la que iba a convertirse en “puerta de entrada” a los yacimientos fósiles más importantes del mundo para entender el último millón y medio de años.
Los yacimientos de Atapuerca se encuentran a unos doce kilómetros al nordeste de la ciudad de Burgos y en ellos se han recuperado más de 5.000 fósiles con una antigüedad de hasta 800.000 años –algo extraordinario si se tiene en cuenta que encontrar restos fósiles humanos de una antigüedad superior a los 30.000 años es siempre un hecho excepcional- y que están arrojando luz a una época sobre la que se tenía escasísima información. Estos fósiles se han hallado, principalmente, en dos localizaciones concretas: la Gran Dolina y la Sima de los Huesos. En la primera de estas localizaciones, la Gran Dolina, se encontraron los restos de seis individuos de características diferentes a lo previamente conocido y que condujo a definir y nombrar una nueva especie, el Homo antecessor. La importancia de esta nueva especie radica, además de en ser la primera que habitara Europa hace 800.000 años, en que constituye el antepasado común al hombre actual (Homo sapiens), que aparecería en África varios miles de años después, y el hombre de neandertal (Homo neanderthalensis).
Como decimos, el H. sapiens apareció en África bastante después de que su pariente, el H. antecessor, habitara las cuevas de la Sierra de Atapuerca. A determinar este tiempo no sólo contribuyen los métodos de la paleontología clásica, sino que últimamente también la biología molecular está aportando su madurez adquirida en los últimos cincuenta años. En este sentido, y para ver cómo esta disciplina puede ayudar en la determinación del nacimiento de una especie, habría que tener en cuenta, por ejemplo, y en una primera aproximación, que el ADN de la mitocondria -un orgánulo de la célula- sólo se transmite por vía materna. Por lo tanto, si siguiéramos la línea de las madres de cada persona, en el árbol genealógico de los H. sapiens, llegaríamos a una primera mujer: la llamada “Eva Mitocondrial”. Así, basándonos en una técnica denominada Reloj Molecular, se puede concluir que aquella primera mujer se produjo por una mutación hace unos 150.000-200.000 años en algún lugar de África. De igual forma se puede hacer con el material genético del cromosoma Y, que se transmite por vía paterna, para concluir que el primer H. sapiens macho se produjo de una forma más gradual -puede ser que precisara de varias mutaciones en diferentes generaciones- y unos 50.000 años más tarde. Mientras tanto, en Europa, y en paralelo al desarrollo del H. sapiens, el H. antecessor dio lugar a otra especie denominada H. heidelbergensis, pasado directo del H. neanderthalensis.
Recientemente, estudios genéticos sobre ADN del núcleo de la célula –que resulta más apropiado que el de la mitocondria para llevar a cabo estudios evolutivos- revelan que la divergencia entre los neandertales y los H. sapiens se produjo hace unos 500.000 años. Estos mismos estudios también revelan que no hubo mestizaje entre estas dos especies a pesar de que convivieron en el espacio y en el tiempo. Y es que, independientemente de cuándo tuviera lugar la aparición de H. sapiens en África, lo que parece cierto es que el poblamiento de nuestro continente por el hombre moderno no tuvo lugar hasta hace 30.000-40.000 años, mientras que el último neandertal parece ser que habitó Europa hasta hace unos 24.000 años, por lo que tuvieron que compartir territorio y recursos a lo largo de varios milenios.
La biología, la cultura y las costumbres de los neandertales y aquellos primeros hombres europeos, también llamados cromañones, son muy diferentes. Las posibilidades de que interaccionaran no deben ser muy bajas, pero sí que parecen remotas en cuanto a compartir material genético. Probablemente no tendremos que esperar mucho tiempo a que se nos anuncie la secuencia completa del genoma del neandertal. Quizá en ese momento habrá que plantearse ciertas etapas de la evolución…, o quizá no.

lunes, 30 de junio de 2008

El Cabo de Gata


Una estrecha carretera casi sin curvas comunicaba el pueblo con las salinas y discurría, paralela a la costa, limitando la zona de la playa, casi virgen, y separándola de la estepa litoral donde se elevaban espinares de cornical y bosquetes de palmito, que compartían el suelo con agrupaciones de esparto, romero y tomillo que se dividían el terreno en comunidades inmiscibles.

-Pues ya hemos llegado –dijo Carmen mientras el autocar paraba en una especie de apartadero de la carretera que sobresalía de ésta como un apéndice artificial-. Espero que resuelvas pronto esos asuntillos de los que hablas y puedas disfrutar del cabo.


La Clave de Prometeo (Ed. Grafema, 2005)

miércoles, 25 de junio de 2008

CIENCIA Y RELIGIÓN, LA HISTORIA DE UNA TREGUA

La ciencia y la religión parecen moverse en un conflicto continuo desde casi el nacimiento de ambas. La sensación de que existe una oposición entre ellas es real, pero si bien podemos encontrar demasiados puntos que parecen alejar a cada una de la otra, no es menos cierto que a lo largo de la historia ha habido algunos momentos en los que se han conseguido limar diferencias.
Tradicionalmente, han sido sus protagonistas los que se han encargado de echar más leña al fuego de esta tormentosa relación. Y es que muchos científicos se han encargado de usar la ciencia como un arma arrojadiza contra la religión, como es el caso del estadounidense Richard Dawkins –autor del libro de divulgación científica “El gen egoísta”-, que ha llegado a decir que la religión es un factor negativo en la vida humana y la ha calificado como virus de la mente, mientras que, del otro lado, no son pocos los estamentos eclesiásticos que han derramado su más virulento discurso contra los avances de la ciencia.
En la actualidad, la gran mayoría de la sociedad entiende la religión como una opción personal sin autoridad para cuestionar la autonomía de la ciencia, a la vez que no trata de utilizar teorías científicas para dar explicación a determinadas afirmaciones bíblicas tomadas de forma literal como la creación del Universo en siete días. Además, a lo largo de la historia han existido honrosas excepciones entre científicos y autoridades de la Iglesia que nos hacen mantener cierto optimismo de cara al futuro de la relación. Uno de estos ejemplos lo encontramos en el conocido como “padre de la genética”. Se trata de Mendel, un monje agustiniano que, gracias al trabajo que desarrolló con diferentes variedades de guisantes en el siglo XIX, estableció las leyes que determinan la base de la herencia genética. Ya en el siglo XX, científicos tan importantes como Max Plank, que elaboró la teoría cuántica, o Albert Einstein, posiblemente el científico más popular de nuestro pasado reciente, han intentado conciliar sus creencias religiosas y la existencia de un Dios Omnisciente y Creador, con los avances a los que sus respectivas investigaciones científicas iban dando lugar. De Einstein incluso afirman que llegó a formular la siguiente frase: la ciencia sin la religión está coja, mientras que la religión sin la ciencia está ciega.
Pero si existe un caso que resulta paradigmático, ese es el del sacerdote católico y astrofísico belga Georges Henri Lemaître. Este cura, doctor en física en 1920 y ordenado sacerdote en 1923, resolvió las ecuaciones que Einstein planteaba en su teoría de la relatividad sobre el Universo. Gracias a este hecho, Lemaître pudo confirmar que éste se está expandiendo, idea que le llevó a proponer la teoría del “átomo primigenio” o “huevo cósmico”, según la cual el Universo se originó en una explosión que hoy conocemos como “Big Ban”. Para esta teoría, el Universo es algo dinámico y, por lo tanto, diferente en el presente a como lo fue en el pasado y como lo será en el futuro. Además el modelo de Big Bang le asigna una edad finita que el padre Lamaître estimó entre diez y veinte mil millones de años.
En base a evidencias observacionales todo hacía pensar que el Universo se encontraba en una continua expansión que daba lugar al alejamiento de las galaxias. Este alejamiento se traduce en lo que en astronomía se conoce como “corrimiento al rojo”, que es un fenómeno físico que ocurre cuando aumenta la longitud de onda de la luz emitida desde una galaxia. Este aumento en la longitud de onda es proporcional al descenso en la frecuencia de estas radiaciones, y la correcta interpretación de este hecho fue lo que llevó a Lamaître a elaborar su teoría.
En paralelo a ésta surgió una segunda teoría que proponía que, mientras las galaxias se alejan entre sí, se está generando nueva materia. Durante varias décadas hubo tantos científicos que apoyaron una teoría como otra, pero el descubrimiento de la llamada “radiación de fondo”, en 1965, vino a confirmar que, tal y como postulaba Lamaître, el Universo evolucionó a partir de un estado de muy alta densidad y temperatura como es el “átomo primigenio”.
Hoy en día, la teoría del Big Bang, esa gran explosión que dio origen a todo, es asumida por la totalidad de los científicos y la cultura popular. Incluso el papa Pío XII llegó a alabar la trascendencia de este postulado. Y es que parece cierto que ciencia y religión están condenadas a entenderse. Lamaître, en una entrevista concedida al New York Times, ya lo decía: “Estoy convencido de que ciencia y religión son dos caminos diferentes y complementarios que convergen en la verdad”.

martes, 17 de junio de 2008

EL DESIERTO DE TABERNAS


La rambla, que surcaba el espacio a su derecha, se abría entre el paisaje telúrico y abrasador como una brecha en mitad del desierto. Los taludes verticales, como orillas que mostraban un perfil infinito a la rambla, conformaban una serie de barrancos abruptos que conferían una majestuosidad sin igual a aquel entorno. La carretera, con su alfombra de alquitrán, era una mancha triste en el contexto árido del desierto que parecía ignorar la presencia alguna de vida.

La Clave de Prometeo (Ed. Grafema, 2005)

miércoles, 11 de junio de 2008

LA VACUNA Y EL MÉTODO CIENTÍFICO

En la actualidad, la viruela se encuentra totalmente erradicada. De hecho, el último caso registrado en el mundo de esta enfermedad se dio en Somalia hace más de treinta años. Y dado que no existe riesgo de contraer la enfermedad, ni siquiera resulta necesario un programa preventivo de vacunación. Pero hasta no hace mucho tiempo, hablando en términos relativos, la viruela fue una enfermedad letal cuya tasa de mortalidad llegó a ser de hasta un treinta por ciento de los pacientes infectados. Su origen podríamos encontrarlo en la India o en Egipto hace unos 3000 años, y desde entonces sucesivas epidemias han devastado poblaciones enteras.
Ya a mediados del siglo XVIII se sabía que las mujeres que ordeñaban vacas, si habían sido infectadas con la viruela que afectaba a sus animales –viruela vacuna, que causaba ampollas en sus ubres- eran capaces de evitar la infección del virus que atacaba a los humanos. La observación de este hecho fue lo que llevó al médico inglés Edward Jenner, en 1796, a infectar a un niño con la pus extraída de una mujer que había contraído la viruela vacuna. Varios días después puso en contacto a aquel niño con el virus de la enfermedad humana, que por entonces se había convertido en una auténtica plaga en Europa, para comprobar que se había vuelto inmune a la viruela.
En ese momento el término “vacuna” no era aún utilizado como tal y ni siquiera el propio Jenner conocía el mecanismo que había dado lugar a la inmunidad del niño. Pero lo que es cierto, y éste es un mérito que nadie duda en otorgar al médico británico, es que fue el primero en aplicar la observación y experimentación –el Método Científico, en definitiva- a la prevención de una enfermedad infecciosa. No sería hasta varias décadas después que la palabra “vacuna” comenzaría a popularizarse a raíz de las investigaciones del científico francés Pasteur –el mismo que inventó la pasterización como proceso para eliminar los agentes patógenos de determinados alimentos líquidos mediante calentamiento-. Desde entonces, se han utilizado varias decenas de vacunas en el tratamiento de enfermedades infecciosas producidas por virus o bacterias.
Cuando un individuo es vacunado, lo que realmente estamos haciendo es facilitar que su sistema inmune aprenda a defenderse contra un enemigo potencial. Y esto es así ya que una vacuna, no es, ni más ni menos, que un preparado que contiene, o bien el agente patógeno –virus o bacteria- que produce la enfermedad, o bien los componentes tóxicos inactivados procedentes de estos microorganismos.
En la actualidad existen cuatro tipos de vacunas en función de su composición. Las primeras son las vivas atenuadas, como la del sarampión o la varicela, en las que el microorganismo en cuestión se encuentra mutado encontrándose muy mermada su virulencia. Las segundas son las muertas o inactivadas, como la de la rabia o la de la gripe, en las que el agente patógeno ha sido tratado con medios físicos como el calor o químicos como el formol. El tercer tipo de vacunas se conoce como toxoides, y a éste pertenece la del tétanos o la de la difteria, que se caracterizan por contener sólo las toxinas, y no el microorganismo completo, que produce la enfermedad. Y las últimas son las subunitarias, que sólo contienen un fragmento del microorganismo suficiente para disparar el proceso inmune. Un ejemplo de vacuna subunitaria lo encontramos en la hepatitis B, en la que se utiliza sólo las proteínas de la superficie del virus. Este último tipo de vacunas es de muy reciente uso y en su elaboración ha sido fundamental el desarrollo de técnicas de ingeniería genética.
En cualquier caso, cuando un individuo es vacunado su sistema inmune va a ser capaz de generar unas moléculas llamadas anticuerpos que reconocerán específicamente una parte del agente infeccioso llamada antígeno. Una de las características más importantes del sistema inmune es la memoria. Así, cuando un agente patógeno trate de infectar a un individuo que previamente haya sido vacunado, el sistema inmune será capaz de reconocer a aquellos antígenos contra los que aprendió a defenderse y pondrá en marcha toda su maquinaria de modo que los diferentes elementos que lo conforman –linfocitos B, linfocitos T, complemento, fagocitos…- estarán listos para evitar la enfermedad.
Jenner tuvo que luchar contra la incredulidad de los científicos de su época y contra la superstición y la ignorancia. Por suerte, el reconocimiento le llegó a tiempo y hoy es considerado uno de los científicos más destacados de la historia. Su capacidad de observación, su talento en la deducción y una experimentación acertada fueron su verdadero valor. Su constancia y su confianza en el método, su garantía.