Diseño: El código genético, finamente ajustado
19 noviembre 2011— Francis Crick consideraba que el código genético que encontramos en la naturaleza era «un accidente congelado». Pero se está haciendo más y más patente que este código está exquisitamente ajustado —con características que sugieren desde luego que es uno entre un millón. Por tanto, ¿no debería considerarse el diseño deliberado, el diseño inteligente, como una inferencia legítima, como la mejor explicación de cómo este código llegó a existir?
Todos estamos familiarizados con el código genético, por el cual una transcripción en ARNm se traduce a los residuos de aminoácidos que conforman las proteínas. Los tripletes de nucleótidos —llamados «codones»— sirven como «palabras moleculares», donde cada una de ellas especifica un aminoácido determinado o los sitios de paro de los marcos abiertos de lectura (ORFs por sus siglas en inglés). Los ribosomas y los complejos ARNt-metionina (conocidos como metionil ARNts «cargados» se unen cerca del extremo 5' de la molécula del ARNm en el codón de iniciación AUG (que especifica el aminoácido metionina) y comienzan a traducir sus secuencias de ribonucleótido a la secuencia de aminoácidos específica necesaria para conformar una proteína funcional. Cada aminoácido se une en su extremo carboxilo al extremo 3' de su propia especie de ARNt mediante una enzima conocida como aminoacil tRNA sintetasa.
Existen dos sitios en un ribosoma para ARNts activados: el sitio peptidilo y el sitio aminoacilo (sitio P y sitio A respectivamente). El codón de iniciación, que lleva metionina, entra en el sitio P. El anticodón 3' UAC 5' del ARNt se empareja con el codón complementario 5' AUG 3' RNAm. El segundo ARNt entra en el sitio A. Una parte enzimática del ribosoma, llamada peptidil transferasa, crea entonces un enlace peptídico para unir los dos aminoácidos. Al formarse el enlace peptídico, se rompe el enlace aminoacilo que conectaba el aminoácido con su correspondiente ARNt, y el ARNt puede así abandonar el sitio P. Esto es seguido por la translocación ribosomal para posicionar un nuevo codón abierto en el sitio A vacío y también para trasladar el segundo ARNt —que está ahora unido a un dipéptido— del sitio A al sitio P. Y así se va repitiendo el ciclo hasta la llegada de un codón de paro que impida la adicional elongación de la cadena.
Para una ilustración visual de cómo esto funciona en la práctica, remito a los lectores a la siguiente breve animación:
La cantidad total de posibles tripletes de ARN asciende a 64 codones diferentes. De los mismos, 61 especifican aminoácidos, y los tres restantes (UAG, UAA y UGA) sirven como codones de paro, que detienen el proceso de síntesis de proteína. Debido a que hay sólo veinte aminoácidos diferentes, algunos de los codones son redundantes. Esto significa que varios codones pueden codificar el mismo aminoácido. Las rutas y los mecanismos celulares que hacen posible esta correspondencia de 64 a 20 es una maravilla de lógica molecular. Es suficiente para que se le caiga la baba a cualquier ingeniero. Pero las señales de designio se extienden mucho más allá de la evidente genialidad de diseño de ingeniería del aparato de traducción celular. En este artículo voy a exponer varios niveles de ingenio de un diseño deliberado que se hace patente en esta obra maestra de la nanotecnología.
¿En qué sentido está finamente ajustado el código genético?
Como ya se ha dicho anteriormente, el código genético presenta degeneración. Esto significa que diversos codones significarán a menudo el mismo aminoácido. Esta degeneración es causada principalmente por una variación en la tercera posición, que es reconocida por el nucleótido en el extremo 5' del anticodón (la llamada posición wobble —«tambaleante»). Esta hipótesis del wobble enuncia que los nucleótidos presentes en esta posición pueden realizar interacciones que no se permiten en las otras posiciones (aunque todavía quedan algunas interacciones no permitidas).
Pero esta disposición dista de ser arbitraria. De hecho, el código genético que se encuentra en la naturaleza está exquisitamente ajustado para proteger a la célula de los efectos perjudiciales de mutaciones por sustitución. El sistema está diseñado de manera tan ingeniosa que los codones que difieran por una sola base o bien especifican el mismo aminoácido, o un aminoácido miembro de un grupo químico relacionado. En otras palabras, la estructura del código genético está pensada para mitigar los efectos de aquellos errores que pudieran incorporarse durante la traducción (y que pueden darse cuando un codón resulta traducido por un anticodón casi complementario).
Por ejemplo, el aminoácido leucina está especificado por seis codones. Uno de ellos es CUU. Las mutaciones de sustitución en la posición 3' que cambian una U a una C, A o G resultan en la alteración de los codones a otros que tambiénespecifican leucina: CUC, CUA y CUG respectivamente. En cambio, si la C en la posición 5' resulta sustituida por una U, lo que obtenemos es el codón UUU. Este codón especifica la fenilalanina, un aminoácido que exhibe unas propiedades físicas y químicas similares a la leucina. Lo que debe recibir explicación es que las asignaciones de codones estén dispuestas de tal manera que se minimiza la degradación del marco abierto de lectura. Además, la mayoría de los codones especifican aminoácidos que poseen cadenas laterales simples. Esto disminuye la propensión de las mutaciones a producir codones que codifiquen secuencias de aminoácidos químicamente perturbadoras.
Freeland et al. (2000) demuestran que el código genético está sumamente optimizado —que desde luego es «el mejor de todos los códigos posibles»— teniendo en cuenta dos parámetros: primero, la probabilidad relativa de transiciones y transversiones; y segundo, el impacto relativo de las mutaciones.
El problema del rechazo fallido
Otro artículo, de Lim and Curran (2001), modela la especificidad de la formación dúplex correcta codón-anticodón durante la traducción. Según su modelo, para que un dúplex incorrecto sea rechazado por el ribosoma, es necesario que tenga al menos un puente de hidrógeno no compensado — criterio que presenta dificultades cuando los duplexes tienen un par de pirimidinas (eso es, la U o la C) en la tercera posición del codón, es decir, en la posición wobble. Las bases pirimidinas son algo más pequeñas que las bases purinas (G y A), y, en la posición wobble, pueden admitir ciertas desalineaciones en la segunda posición para producir pares no conformes a Watson-Crick que compensan los enlaces de hidrógeno ausentes. Esto resulta en una traducción errónea debido a que las desalineaciones en la segunda posición no resultan debidamente rechazadas.
Este problema se puede evitar previniendo que una pirimidina de un anticodón en la posición wobble forme un par de pirimidinas. Una modificación así acarrea que un simple anticodón que pudiera haber reconocido cuatro codones es ahora capaz de reconocer sólo dos. Así que ahora se precisará que haya un ARNt para las pirimidinas de la posición wobble y otro ARNt para las purinas de la posiciónwobble. Esto explica por qué 32 codones (los que terminan en A y G) en el código genético estándar aparecen en «cajas únicas» (family boxes) y que los otros 32 (los que acaban en C y U) aparecen en «cajas mixtas» (split boxes). De hecho, la selección de las cajas de codones «mixtos» se determina según la mismísima estereoquímica que subyace a cuál de las desalineaciones en la segunda posición son vulnerables al problema del rechazo fallido. Así, la simetría que se observa no es arbitraria.
Signos de paro codificados
Otra pasmosa característica del código genético es que las secuencias de codones para paro se superponen parcialmente con las de los codones que especifican a los aminoácidos más abundantes. Esto significa que el código genético está diseñado de tal manera que amortigua el impacto de las mutaciones con desfase del marco de lectura. Una mutación con desfase del marco de lectura sucede como resultado de indels (inserciones o deleciones) de una cantidad de nucleótidos que no sea divisible por tres. Un acontecimiento de esta naturaleza provoca un desplazamiento del marco de lectura, y resulta en la producción y acumulación de proteínas mal plegadas. Cuanto antes tenga lugar esta indel en la secuencia, tanto mayor la alteración de la secuencia de la proteína aminoácida.
Se considera que el código genético está compuesto de grupos de cuatro codones donde las primeras posiciones son las mismas para todos cuatro (mientras que la tercera puede estar ocupada por cualquier base). Cuando los codones codifican el mismo aminoácido, son designados como «una familia de codones». La mitad del código genético está compuesto de estas familias de codones. En las familias de codones designadas AAN y AGN (que categorizan los tripletes de Asn/Lys y Ser/Arg, respectivamente), los tripletes se superponen con los codones UAA y UAG que ponen fin a la traducción. Estas señales codificadas de paro ayudan a prevenir la acumulación de proteínas mal plegadas.
Como lo explican Bollenbach et al. (2007),
... los codones de paro pueden ocultarse fácilmente dentro de una secuencia. Por ejemplo, el codón de paro UGA está sólo a un desplazamiento de NNU|GAN; los codones GAN codifican la Asp y la Glu, que son muy comunes en secuencias proteínicas. Parecidamente, el UAA y el UAG pueden ser desplazados en el marco de lectura para dar NNU|AAN y NNU|AGN (los codones AAN codifican Asn o Lys y AGN da Ser o Arg). la Glu, Lys, Asp, Ser, y Arg son aminoácidos relativamente comunes en el genoma, de modo que la probabilidad de que aparezca un codón de paro por una mala lectura de un codón de uno de estos tres aminoácidos es sumamente elevada. El hecho de que pueda «ocultarse» un codón de esta manera mediante un desplazamiento del marco de lectura significa que incluso una secuencia de señal que resulte incluir un codón de paro (problema que tiene que darse más pronto o más tarde) se puede codificar dentro de la secuencia de proteína mediante el uso de uno de los dos marcos de lectura en los que el codón de paro codifica un aminoácido de uso frecuente.
Lo extraordinario es que este sistema de correspondencia de 62 a 20 está diseñado de modo que se minimice la cantidad de aminoácidos que se traducen a partir de un marco de lectura desplazado antes que aparezca uno de los codones de paro. Codones de alta frecuencia (p. ej., los que codifican ácido aspártico o glutámico) pueden con frecuencia formar codones de paro en caso de un desplazamiento del marco de lectura. Así, en el código genético convencional, la traducción procedente de un marco desplazado de lectura se detiene más rápido, en promedio, que en el 99,3% de códigos alternativos (Itzkovitz y Alon, 2007).
Relacionado con esto hay la capacidad, de la que también nos informan Itzkovitz y Alon, del código genético universal de «permitir secuencias arbitrarias de nucleótidos dentro de secuencias codificantes mucho mejor que la inmensa mayoría de otros posibles códigos genéticos». Comunican que:
Encontramos que el código genético universal puede admitir secuencias arbitrarias de nucleótidos dentro de regiones codificantes mucho mejor que la inmensa mayoría de otros posibles códigos genéticos. Encontramos además que la capacidad de soportar códigos paralelos va fuertemente correlacionada con una propiedad adicional: la minimización de los efectos de los errores de traducción por desplazamiento de marco de lectura.
El código genético resulta así sumamente optimizado para codificar información adicional más allá de la secuencia aminoácida en secuencias codificantes de proteínas. Entre los ejemplos se encuentran las señales de corte y empalme del ARN y la información acerca de dónde se deberían posicionar los nucleosomas en el ADN, así como secuencias para la estructura secundaria del ARN.
El alfabeto de la naturaleza es no aleatorio
Philip y Freeland (2011) llevan este tema a un nivel aún más profundo, al sugerir que el conjunto de 20 aminoácidos que se usan en la naturaleza es fundamentalmente no aleatorio. Los autores comparaban la cobertura del alfabeto estándar de 20 aminoácidos respecto a «tamaño, carga e hidrofobicidad con valores equivalentes calculados para una muestra de 1 millón de conjuntos alternativos (cada uno de los cuales comprendiendo también 20 miembros) entresacados al azar de un conjunto de 50 verosímiles candidatos prebióticos».
Los autores comunican que
... el alfabeto estándar exhibe una mejor cobertura (esto es, mayor amplitud y mayor uniformidad) que cualquier conjunto aleatorio para cada uno de los tamaños, cargas e hidrofobicidad, y para todas las combinaciones de los mismos. En otras palabras, dentro de los límites de nuestras presuposiciones, el conjunto completo de 20 aminoácidos codificados genéticamente se ajusta a nuestro criterio adaptativo hipotético relativo a cualquier cosa que el azar hubiera podido ensamblar de lo que estaba prebióticamente disponible.
Así, los autores descartan inmediatamente la hipótesis del azar como una opción inviable. La importancia de esto se extiende más allá, porque los investigadores también investigan los ocho aminoácidos prebióticamente plausibles que se encuentran entre los 20 que aparecen actualmente en las proteínas biológicas. Comparan las propiedades de dichos aminoácidos con conjuntos alternativos escogidos al azar, estableciendo —una vez más— la naturaleza fundamentalmente no aleatoria de los utilizados.
La imposibilidad de la evolución del código genético
Los cambios en asignaciones de codones serían catastróficos para la célula, porque tal mutación llevaría en último término a cambios de la secuencia aminoácida en cada proteína producida por la célula. Esto significa que uno no puede tener un código genético en evolución significativa, aunque —se puede admitir— hay una o dos variaciones menores del código genético estándar. Algunos han tratado de argumentar alrededor de esto postulando que los codones menos usados pueden ser redesignados a aminoácidos diferentes aunque relacionados, permitiendo así optimizar el código genético. Pero esta propuesta se enfrenta con formidables dificultades. Por una parte, parece muy improbable que con la sustitución de algunas de las asignaciones menos usadas con un aminoácido relacionado se podría llegar al nivel de optimización que encontramos en el código convencional.
Además, se suscita naturalmente la cuestión acerca de qué utilidad selectiva exhibirían los nuevos aminoácidos. De hecho, no tendrían utilidad alguna hasta que fuesen incorporados a proteínas. Pero esto no sucederá hasta que queden incorporados en el código genético. Y por ello tienen que ser sintetizados por enzimas que carecen de ellos. Y no olvidemos la necesidad de los ARNts y enzimas activadores específicos que son necesarios para incluirlos en el código.
Una dificultad relacionada con las explicaciones evolucionistas usuales es que un fondo de aminoácidos bióticos sustancialmente inferior a 20 es susceptible de reducir sustancialmente la variabilidad de las proteínas sintetizadas por los ribosomas. Y es improbable que la selección prebiótica cribe la masa de variaciones para este carácter de optimización aminoácida antes del origen de la vida autorreplicante (en muchos respectos, el término «selección prebiótica» es más bien un oxímoron).
Se suscita también el problema adicional del potencial para la ambigüedad en la correspondencia de los codones. Si, por ejemplo, el 80% de las veces un codón determinado especifica un aminoácido y el 20% especifica otro, esta ambigüedad de correspondencia llevaría a un caos celular.
Para una reseña exhaustiva de diversos intentos de explicar la evolución del código, remito a los lectores a este artículo de 2009 por Eugene Koonin y Artem Novozhilov. Concluyen ellos su reseña crítica lamentando que
En nuestra opinión, a pesar de extensos y en muchos casos elaborados intentos por modelar la optimización del código, de teorizar de manera ingeniosa siguiendo líneas de la teoría de la coevolución, y de considerable experimentación, se han hecho bien pocos progresos reales.
Siguen comunicando que
Procediendo a resumir la situación actual en el estudio de la evolución del código, no podemos sustraernos a un considerable escepticismo. Parece que la pregunta fundamental en dos términos: «¿Por qué es el código genético como es, y cómo llego a existir?», pregunta que se planteó hace más de 50 años en el amanecer de la biología molecular, podría seguir en pie durante otros 50 años. Nuestro consuelo es que no podemos pensar de ningún otro problema más fundamental en biología.
Sin embargo, incluso si concediésemos la premisa de que el código genético se pueda modificar con el tiempo, queda por determinar si hay suficientes recursos probabilísticos disponibles para justificar apelaciones al papel del azar y de la necesidad. A la vista de la descomunal cantidad de códigos que se tendrían que ensayar y evaluar, los escenarios evolucionistas parecen muy inverosímiles.
Haciendo matemáticas
Hubert Yockey, biofísico y teórico de la información, ha argumentado que la cantidad de potenciales códigos genéticos está en el orden de 1,40 x 10^70. Yockey concede la cifra sumamente cauta de 6,3 x 10^15 segundos para el tiempo disponible para la evolución del código genético. Observemos que esto da por supuesto que el código genético ha tenido para evolucionar todo el tiempo disponible desde el Big Bang. Entonces, ¿cuántos códigos por segundo se tendrían que evaluar para que la selección natural «tropezase» con el código genético universal que encontramos en la naturaleza? Las matemáticas nos dicen que aproximadamente 10^55 códigos por segundo.
Reflexionemos. Incluso si concedemos unos valores tan absurdos —todo el tiempo disponible desde el Big Bang—, sería necesario que la selección natural evaluase 10^55 códigos genéticos por segundo para tener una posibilidad razonable de tropezar con el código genético optimizado que encontramos en la naturaleza. Este traicionero obstáculo queda agudizado cuando consideramos estimaciones más razonables. En el modelo evolutivo comúnmente aceptado, la tierra hubiera quedado bio-habitable hace unos 3,85 mil millones de años, y las señales de la primera vida hubieran aparecido hace alrededor de 3,8 mil millones de años. Unas estimaciones más realistas del tiempo disponible hacen solo más abrumador el problema. Para una adicional consideración de este tema, véase el libro del bioquímico Fazale Rana, The Cell's Design [El diseño de la célula].
Codones superpuestos y cambio de marco de lectura por los ribosomas
Cambio del marco de lectura. Ilustración cortesía de la base de datos rfam
Otra y extraordinaria característica de diseño deliberado del código genético es su capacidad de tener marcos de lectura superpuestos de modo que se puedan producir dos y más proteínas a partir de la misma transcripción. Este fenómeno se conoce como «desplazamiento del marco de lectura por el ribosoma», y se encuentra comúnmente en virus incluyendo el virus del enanismo amarillo de la cebada, el virus del enrollamiento de la hoja de la patata, y en el retrovirus 1 de los simios.
El desplazamiento del marco de lectura por parte del ribosoma es promovido por una estructura de pseudonudo (que se muestra en el diagrama), y también un sitio específico en el ARNm, conocido como secuencia resbaladiza (slippery), que normalmente contiene varios residuos de adenina. Cuando sucede esto, el ribosoma retrocede una base y luego procede a leer la transcripción del ARNm en un diferente marco de lectura. ¡Esto permite la producción de dos o más diferentes proteínas desde la misma transcripción!
Como se ha mencionado, este desplazamiento programado del marco de lectura del ribosoma está particularmente extendido en los virus, donde el genoma ha de ser pequeño debido a la pequeña capacidad de la cápside vírica.
Actualmente se sabe que el desplazamiento del marco de lectura por el ribosoma tiene lugar en todos los tres dominios de la vida. Un ejemplo de esto en células eucariotas aparece en la levadura Saccaromyces cerevisiae, donde este proceso produce las proteínas Est3p y Abp140p.
Conclusión
A la luz de hechos como los anteriores, se está haciendo más y más claro que el genoma es bidireccional, polifacético e interfoliado en cada etapa. Los pretendidos mecanismos sin dirección de azar y necesidad son demostrablemente inadecuados para explicar esta maravilla de ingeniería. Unos parámetros tan delicadamente equilibrados y finamente ajustados se asocian rutinariamente con agentes que actúan con deliberación. Los agentes inteligentes están dotados de la capacidad de previsión y tienen la capacidad de visualizar y de actualizar posteriormente un punto final complejo. Si en cualquier otro ámbito de la experiencia humana estos elementos se asocian rutinariamente con causas inteligentes —y exclusivamente con causas inteligentes—, ¿no estamos justificados en postular que este sistema también se originó por voluntad de un agente consciente con un propósito deliberado?
Fuente: Evolution News – The Finely Tuned Genetic Code 19/11/2011
Redacción: Jonathan M © - www.evolutionnews.org Traducción y adaptación: Santiago Escuain — © SEDIN 2011 - www.sedin.org Usado con permiso para: www.culturacristiana.org
Comentarios
Publicar un comentario