Investigación básica o aplicada (5/5): El enigma genético y el almacén de invasores

Mario Rodriguez

El Proyecto Genoma Humano en forma impresa. Wellcome Collection (Londres).

Allá por el año 1990, al mismo tiempo que el Telescopio Espacial Hubble partía hacia el espacio y justo un año después de que cayera el muro de Berlín, comenzaba a gestarse en EEUU el “Proyecto Genoma Humano” (PGH). Todo había empezado cuando, en 1984, seis años atrás, un conjunto de científicos del Departamento de Energía de Estados Unidos propuso una vía de investigación en la que se desarrollara una técnica capaz de secuenciar el genoma humano y detectar posibles mutaciones en el ADN de los supervivientes a las bombas atómicas lanzadas en Japón durante la II Guerra Mundial.

Este proyecto, que estaría encaminado hacia el cartografiado y la secuenciación de nuestro material genético, acabaría once años y miles de millones de dólares después, fruto de la colaboración entre el sector público y privado. En el año 2000 se presentaría por fin el primer borrador del genoma humano (en la jerga de la bioinformática, el primer Draft), y tres años más tarde, coincidiendo con el 50 aniversario del descubrimiento de la estructura del ADN, se anunciaría que el genoma del hombre había sido secuenciado casi en su totalidad.

La importancia de tal hazaña no pasó desapercibida. Tal es así que el día después de la publicación conjunta en Nature y Science, el hito fue presentado por el Primer Ministro inglés Tony Blair y el Presidente de los EEUU Bill Clinton, quien pronunciaría la famosa frase «Hoy estamos conociendo el lenguaje con el que Dios creó la vida. Estamos conociendo la complejidad, la belleza y la maravilla del más divino y sagrado regalo de Dios (…)». El fenómeno marcó un antes y un después en el mundo de la genética y las ciencias biológicas en general. Los genetistas pasaron de tener escaso material con el que trabajar, a encontrarse con ingentes cantidades de secuencias desconocidas cuya función era necesario esclarecer. Paulatinamente, gracias a la labor de miles de científicos y científicas y la cooperación internacional, el rompecabezas del ADN fue vislumbrándose. Además, durante el transcurso del PGH, se fueron publicando otros genomas completos de organismos más sencillos, como Haemophilus influenzae (el primer organismo de vida libre cuyo genoma completo fue secuenciado, por Craig Venter).

A día de hoy aún queda mucho trabajo por hacer, pero podemos afirmar sin temor a equivocarnos que conocemos más exhaustivamente la información que nos hace humanos, cuáles son nuestros orígenes, y cuál es la base genética de un gran número de enfermedades que padecemos.

Sin embargo, la revelación del genoma humano planteó más interrogantes que respuestas. Al comienzo del Proyecto Genoma Humano, se predijo que el genoma debía contener alrededor de 100.000 genes. Sin embargo, la realidad resultó ser bastante diferente.

Se encontró que únicamente el 2% del genoma humano está destinado a la síntesis de proteínas, y que éste está distribuido en alrededor de 20.000 genes codificantes de tales proteínas. Este hecho sin duda supuso una de las grandes decepciones del proyecto. La comunidad científica estaba atónita sabiendo que el número de genes en los humanos es prácticamente el mismo que posee un nematodo que se encuentra bastante alejado de lo que consideramos “complejo”.

Portada de la revista Nature dedicada al Proyecto Encode

Pero entonces, ¿cuál era la función del 98% del genoma restante?

Tras diversos análisis, se consiguió argumentar que gran parte de este 98% está compuesto por secuencias repetidas sin función aparente. Este fue el principal motivo por el que, incorrectamente (como veremos más adelante) se acuñó el término “ADN basura”.

Pese a ello, los investigadores sospecharon que conocer el papel de estas secuencias podría ayudar a conocer la estructura de los genomas y su dinámica. Por aquel entonces se creía que las repeticiones habían reformulado el genoma a lo largo de la evolución, lo habían reordenado, y por tanto habían dado lugar a la aparición de nuevos genes o a la modificación de otros ya existentes.

En Septiembre de 2003, la Proyecto “ENCiclopedia de los elementos del ADN (ENCODE)” fue lanzado con el objetivo de interpretar los datos generados por el proyecto Genoma Humano. Haciendo uso de métodos experimentales y bioinformáticos, fue posible analizar la estructura del ADN y sus componentes funcionales.

El consorcio ENCODE definió un elemento funcional como “un segmento discreto del genoma que codifica para un cierto producto, o que muestra una señal bioquímica reproducible (relacionado con la estructura cromatínica específica)”, y trató de elaborar un catálogo completo que contuviera todos los elementos funcionales codificados en el genoma humano. Hoy en día esta visión ha sido rediseñada, como comentaremos en otro artículo, pero en resumen, un gen no es solo una secuencia de nucleótidos sino que implica a su reguloma.

En 2012, una vez el proyecto hubo terminado, se llegó a la conclusión de que al menos el 80% del genoma es funcional. Este número podría aumentar en el futuro si se considera el análisis de más tipos celulares, pues algunos genes que se encuentran “apagados” en algunas líneas celulares, están “encendidos” en otros.

Del mismo modo que el proyecto ENCODE, otras hojas de ruta en paralelo trataban de averiguar la función de las secuencias repetidas o no codificantes en organismos menos interesantes a simple vista, como las bacterias o los hongos unicelulares.

¿Pero bueno, qué tiene todo esto que ver con el almacén de invasores?

A comienzos de la década de los 90, al mismo tiempo que estaba llevando a cabo el PGH, Francisco Mojica (investigador español nominado al Nobel de Medicina y Química) se encontraba en un pequeño laboratorio de la costa alicantina, realizando investigaciones sobre Haloferax mediterranei, un tipo de arquea cuyo hábitat natural son los ambientes hipersalinos.

Francisco JM Mojica, microbiólogo de la Universidad de Alicante / El País

Mojica describió una serie de repeticiones presentes en estos organismos cuya función por aquel entonces era totalmente desconocida. Estas repeticiones ya habían sido descritas con anterioridad en otras bacterias, de modo que todo indicaba que debían tener alguna función para los procariotas. Además, las repeticiones estaban perfectamente ordenadas y regularmente espaciadas, hecho que las hacía especialmente peculiares.

Un tiempo después, el microbiólogo español descubrió que estas secuencias repetidas en procariotas poseían otras secuencias interespaciadas que parecían ser totalmente aleatorias. Nada más lejos de la realidad, lo que contenían aquellos segmentos aleatorios era absolutamente sorprendente.

Las secuencias aleatorias coincidían con una mezcla de bacteriófagos (como los que investigaba André Gratia) y plásmidos invasivos (armas usadas por bacterias para destruir otras bacterias). Digamos que era una especie de recordatorio de todos los elementos que habían tratado de hacer daño a la bacteria.

Tras un largo tiempo de reflexión sobre estos datos, se llegó a la conclusión de que el sistema CRISPR en su totalidad era un almacén donde las bacterias guardaban la información genética de invasores. La información allí contenida permitía que un arma de defensa de las bacterias, también codificadas dentro del mismo almacén (las proteínas Cas) localizaran esa secuencia si volvían a ser invadidas y la cortaran, provocando que el resto de maquinaria celular la destruyera.

Se había descubierto entonces, lejos de lo que se tenía como cierto, que los procariotas poseían su propio sistema inmune adaptativo (parecido al existente en eucariotas), capaz de adaptarse al ataque de diversos elementos.

La aplicación de este descubrimiento no tardó en llegar. En 2012 un equipo de investigadores norteamericanos consiguió aislar la mínima unidad encargada de destruir el material genético invasor, y consiguió ingenierizarla para que cortara secuencias de interés, es decir, utilizaron una proteína Cas con modificaciones para que provocara una escisión en casi cualquier secuencia deseada (siempre y cuando cumpliera una serie de características)

¿Qué hemos aprendido en este largo camino?

En un principio, se concibió en Proyecto Genoma Humano como una gran investigación cooperativa en el que se podía alcanzar a revelar “el gran misterio de la biología” y responder a las demandas impuestas por las enfermedades genéticas y el envejecimiento. Tales ideas exageradas fueron distribuidas por los medios, lo que contribuyó a aumentar esa sensación.

Francis Collins (izquierda) y Craig Venter (derecha), «padres» del Proyecto Genoma Humano

Como contábamos al principio, en un primer momento el Proyecto Genoma Humano supuso una frustración enorme. Los científicos no sabían cómo interpretar la información obtenida, pues se alejaba bastante de lo que habían predicho en un primer momento. Sin embargo, en ciencia cada pequeño grano de arena cuenta.

Algo que se se subestimó en un primer momento pasó a ser una de las mayores fuentes de información científica de todo el siglo XXI, de nuevo, gracias al desarrollo de numerosas investigaciones cuyo propósito era “conocer nuestro genoma”, y que surgió de la idea de analizar las mutaciones en los supervivientes a la bomba atómica. El pequeño grano de arena acabó convirtiéndose en todo un desierto.

En la actualidad, la empresa Life Technologies ha anunciado que posee la tecnología necesaria para secuenciar un genoma entero a un precio de aproximadamente $1000 y un tiempo total de unas 24 horas.

La aplicación directa de eso ha sido inmediata. En ciertos hospitales oncológicos, por ejemplo, el primer estudio que realizan a los pacientes es una secuenciación de su material genético. Esto hace 10 años era impensable, o sólo asequible para hombres como Bill Gates o Steve Jobs.

La técnica CRISPR/Cas ha facilitado que la edición genómica, que se encontraba al alcance sólo de unos pocos investigadores debido a su costo y su dificultad de uso, pueda ser puesta a punto por estudiantes de Universidad en prácticas rutinarias de laboratorio. Además, su uso en el ambiente clínico es bastante prometedor, y ya está comenzando a utilizarse como herramienta dentro de la terapia génica. Gran parte de la comunidad científica internacional considera que las posibilidades de esta técnica son inimaginables, y cada día se publican investigaciones que describen nuevas aplicaciones, tal y como hablaremos en otro artículo.

«El único límite de CRISPR/Cas es la imaginación»

Lluis Montoliu, investigador del CNB-CSIC

Una pequeña reflexión final

Ahora os toca a vosotros, dentro de esta historia, tratar de analizar donde están los límites de la investigación básica y la investigación aplicada. Qué partes de este pequeño relato se corresponden con puro afán por conocer, y cuáles llevan implícito el desarrollo de utilidades, servicios y productos.

Lo que debéis sacar en claro de esta serie de artículos es que no cabe duda es que la ciencia básica es el pilar fundamental en el que sustenta el progreso de la sociedad y la humanidad. Para alcanzar nuevas metas, la vía primordial que ha de seguir el hombre es ampliar sus conocimientos. Una vez hecho esto, no debería tardar en darse cuenta de que cada conocimiento, cada pequeño grano de arena del desierto, posee una utilidad que en ocasiones puede llegar a ser incalculable.

En este contexto, el famoso y polémico bróker Josef Ajram comentaba hace unos días en Twitter lo siguiente:

Este tipo de reflexiones, nocivas para la ciencia y la tecnología, parten de una base errónea. El progreso de la ciencia no es incompatible con el progreso en los derechos humanos y sociales. De hecho, es quizá uno de los motores que fomentan con mayor ímpetu el avance de civilización.

Por otro lado, Ajram, introduce implícitamente el error conceptual de tratar la inversión científico-tecnológica como un gasto.

Que este hombre no sea capaz de analizar la posible utilidad que tienen la exploración espacial (Explorar el universo sirve para hacer más fácil la vida en la Tierra)  y el desarrollo de vehículos utilitarios voladores, no quiere decir que no la tengan. Que la inversión en ciencia a veces no devuelva una rentabilidad en capital, (cosa que sería más que discutible) no la hace ser un despilfarro.

El dinero no es el único beneficio existente para el hombre, ni el más importante. La inversión en ciencia devuelve una cosa fundamental (como decía antes) para el progreso de la sociedad: conocimiento. Lo que se haga con ese conocimiento (si se quiere o no monetizar, si está a disposición de la sociedad o no, si ha de estar sujeto a patentes o no) ya es asunto de hombres de negocios como éste. Mientras tanto, dejen a los investigadores hacer cualquier tipo de ciencia, por inútil que parezca.

No estaría de más echar un vistazo a los premios “Ig Nobel” y después buscar las utilidades a las que han dado pie las investigaciones galardonadas. Quizá lleguen a sorprenderse

“El futuro de la sociedad es 100% dependiente de los avances científicos”

Craig Venter, padre del Proyecto Genoma Humano

Mario Rodríguez

Si os habéis quedado con ganas de más, os recordamos que en diciembre de 2017 realizaremos el evento Desgranando Ciencia, ¡nuestra cuarta edición! Desgranando Ciencia está financiado por FECYT.

Referencia:
Moraes, F., & Góes, A. (2016). A decade of human genome project conclusion: Scientific diffusion about our genome knowledge. Biochemistry and Molecular Biology Education, 44(3), 215-223.

Sin comentarios

Publicar comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies