23 dic 2024

¿Por qué la vida está basada en 4 bases y 20 aminoácidos?

 

Nuestro alfabeto tiene 27 letras. Pero el alfabeto con el que está escrita la información genética de todos los seres vivos tiene sólo 4 letras. A su vez, el alfabeto con el que está traducida esa información en las proteínas tiene 20 letras. La razón por la cual toda la vida en la Tierra está basada en cuatro bases nitrogenadas (adenina, timina, citosina y guanina en el ADN) y veinte aminoácidos en las proteínas no parece arbitraria, sino que podría ser la consecuencia de una combinación de factores evolutivos, químicos y físicos. ¿Cuáles son esos factores? ¿Es esa necesariamente la única forma en que la vida podría haber surgido? ¿Qué aspectos históricos de la geología terráquea y contingentes influyeron en esta "decisión" biológica?

Está claro que cuatro bases permiten un sistema de codificación eficiente. Con un alfabeto de 4 bases y combinaciones de tres (tripletes o codones), se pueden codificar 64 posibles combinaciones. Esto es más que suficiente para los 20 aminoácidos esenciales, con redundancia (codones sinónimos) que aumenta la robustez frente a mutaciones. Y los 20 aminoácidos ofrecen una variedad química suficiente para formar proteínas con una amplia gama de funciones, desde catalizar reacciones (enzimas) hasta formar estructuras (colágeno). Ampliar este número no necesariamente habría incrementado la funcionalidad, mientras que usar menos aminoácidos habría limitado la diversidad de estructuras y funciones posibles. Además, las cuatro bases nitrogenadas utilizadas en el ADN son químicamente estables y tienen una alta afinidad por éste, lo que permite una replicación precisa y duradera, y probablemente había una alta disponibilidad de ellas en las regiones de la Tierra donde surgió la vida.

Sin embargo, todos estos argumentos no nos aseguran que puedan existir formas de vida con otro número de bases y de aminoácidos. No hay nada que garantice que la vida en otros planetas use exactamente 4 bases y 20 aminoácidos. 

¿Tienen los números 4 y 20 alguna ventaja evolutiva? Como decía Monod, parece que los seres vivos están diseñados con un propósito teleológico (reproducirse) pero, en realidad, esto es sólo una ilusión fruto de su capacidad de replicar su material genético con errores ocasionales sometidos al juego de la selección natural. El principio de objetividad de la naturaleza nos indica que los sistemas naturales no tienen un propósito teleológico, no existen las causas finales aristotélicas. Por eso Monod habla de teleonomía, en vez de teleología.


 

El número de letras debería ser, desde el punto de vista evolutivo, una ventaja para replicar el material genético. Cuantas más letras tenga un alfabeto, más cortos serán los mensajes. Para imprimir el Quijote hacen falta 2 millones de caracteres. Pero en binario, son bastantes más.

Pero, por otro lado, cuantas más letras tenga un alfabeto, más se tarda en encontrar la letra que queremos copiar si la buscamos en una sopa de letras, que es justo lo que se hace en la replicación del ADN, así que los alfabetos de muchas letras no interesan. 

 

¿Hubo en la Tierra varios competidores y el sistema de 4 y 20 resultó ser el más eficiente y estable en ese entorno, lo que hizo que se convirtiera en el único que sobrevivió a la selección evolutiva? ¿Reflejan los números 4 y 20 las condiciones específicas del entorno químico y físico de la Tierra primitiva, combinadas con las primeras decisiones evolutivas que resultaron ser lo suficientemente exitosas para ser preservadas?

¿Por qué 4 bases, y no 2, o 3, o 5? En el año 2000 surgió una idea muy loca para explicar esto ¡basada en la computación cuántica!

 

 

Los algoritmos de búsqueda tienen como objetivo localizar un elemento dentro de una base de datos desordenada y son muy importantes en computación. Cuando el número de elementos en la base de datos es muy grande, este proceso puede ser muy largo. Poneos a buscar la letra w en esta foto imaginando que las letras están ordenadas al azar.

 

 ¿A que se tarda? 😜 En lo que sigue voy a suponer que la letra que estamos buscando es la w. 

 Clásicamente la forma óptima consiste en revisar cada elemento hasta encontrar el deseado. Esto implica que, en promedio, el número de pasos necesarios para completar la búsqueda es de (N+1)/2, donde N representa el total de elementos en la base de datos donde estamos buscando.

En 1982, Richard Feynman destacó la dificultad de simular ciertos fenómenos cuánticos con computadoras clásicas, lo que motivó la idea de que la computación cuántica podría ser más eficiente que la que hacemos con ordenadores clásicos. Aunque inicialmente este campo avanzó lentamente, en 1994 Peter Shor marcó un hito con un algoritmo cuántico para la factorización de números enteros que operaba en tiempo polinómico, superando al exponencial de los algoritmos clásicos. Este desarrollo dio inicio formal al campo de la computación cuántica. Shor definió la estructura de un algoritmo cuántico como un operador unitario que transforma un estado cuántico en la solución deseada tras un número específico de aplicaciones. Desde el descubrimiento del algoritmo de Shor, el interés en la computación cuántica ha crecido exponencialmente. No solo los científicos, sino también otros grupos, se han visto atraídos por el potencial de esta tecnología, especialmente por su capacidad para descifrar claves de encriptación.

En 1996, Lov K. Grover presentó un algoritmo de búsqueda cuántico permite buscar en bases de datos desordenadas en aproximadamente √N pasos, una mejora significativa respecto a los métodos clásicos para grandes valores de N. Sin embargo, como muchos algoritmos cuánticos, este es probabilístico, proporcionando el resultado con una alta probabilidad, aunque no siempre del 100%, pero a medida que el tamaño de la base de datos aumenta, el margen de error se reduce notablemente.

Para explicar en qué consiste el algoritmo de Grover, supongamos que cada una de las N distintas letras del alfabeto está con orden al azar y desconocido en una rendija distinta en este experimento de interferencias:

Supongamos que lanzamos una partícula exploradora sobre este dispositivo de múltiple rendija con la capacidad,por ejemplo, de invertir su fase sólo cuando interacciona con la letra que está en busca y captura. Pongamos que su acción cambia en una cantidad que es la mitad de la constante de Planck:

Lo bueno que tiene la cuántica es que, al calcular cómo evolucionan las amplitudes de probabilidad de la partícula exploradora con la integral de camino de Feynman, tenemos que sumar a la vez para todos los caminos posibles. 
 
La integral de camino de la partícula exploradora nos permite explorar todas las rendijas a la vez. El camino que cambia su fase en 180 grados (π radianes) es justo el que ha encontrado a la letra que buscábamos, el que ha encontrado a w. En notación de Dirac:


Los demás estados cuánticos asociados a pasar por el resto de rendijas se quedan igual. Decimos que el operador Uw deja igual a todos los demás estados, a todos los estados en los que la partícula pasa por una rendija donde no está la letra w. 

Así que el estado de la partícula exploradora, que era inicialmente una superposición |s> de dirigirse a todas las rendijas con igual coeficiente, cambia al aplicarle el operador Uw de la siguiente manera:

El problema es que,al contrario de lo que piensan los que malinterpretan la mecánica cuántica, el vector estado cuántico no es un observable. No podemos medirlo con sólo una partícula exploradora. No podemos medir los coeficientes de la superposición para ver cuál cambió de signo.

La transformación Uw es difícil de visualizar geométricamente, porque el espacio vectorial de estados cuánticos con el que estamos trabajando tiene N dimensiones. Pero si definimos el estado |k> como la superposición con coeficientes iguales de pasar por todas las rendijas menos por donde está w
entonces se puede representar la acción del operador Uw en un dibujo de sólo dos dimensiones. Uw lo que hace es reflejar el vector estado cuántico de la partícula exploradora con respecto al eje |k>

Es decir, antes el estado de la partícula exploradora era un vector |s> que formaba un ángulo θ/2 con |k>. Es un ángulo pequeño, alejado de los 90º que nos gustaría que tuviera para que el estado cuántico de la partícula exploradora fuera |w>.

Pero ahora, tras aplicar Uw, el vector |Ψ> correspondiente al nuevo estado está todavía más lejos de |w>. 

¿Cómo podemos arreglar ésto? Pues haciendo otra vez el mismo proceso de reflexión, usando otra rendija múltiple, pero ahora haciendo que la partícula exploradora cambie de fase sólo si su estado es perpendicular a |s>. Geométricamente, esto refleja con respecto de |s>


Ahora, tras aplicar el operador Us, ya estamos más cerca de |w>. Pero el ángulo θ/2+θ sigue sin ser 90º. Al operador composición de aplicar Uw y después Us se le denomina operador de Grover, en honor al científico que inventó este algoritmo en 1996
Para conseguir que la partícula exploradora tenga un estado bien definido de pasar justo por la rendija donde está la letra que está en busca y captura lo único que hay que hacer es repetir este proceso n veces hasta que el ángulo sea 90º, es decir, π/2 rad. Aplicamos Ug n veces: 

La partícula pasa por la rendija múltiple una y otra vez. El número n es el número de exploraciones que tenemos que hacer para que la interferencia sea tal que la partícula exploradora llegue, con 100% de probabilidad, justo a la letra que estaba en búsqueda y captura.

 
¿Cuánto vale n? ¿Cuántas veces tiene que pasar la partícula exploradora por la rendija múltiple donde está escondida w? Sólo tenemos que hacer la cuenta:  
 
Pero n tiene que ser un número natural. Así que ¡no nos vale cualquier tamaño N del alfabeto! El número de letras del alfabeto tiene que ser de un tamaño muy concreto para poder aplicar este algoritmo cuántico de forma eficiente. Si representamos n frente a N, vemos que:

 
Sólo para unos valores concretos de N, el tamaño del alfabeto, el algoritmo de Grover encuentra la letra con probabilidad de prácticamente el 100% en un número natural de pasos. El primer valor de N que vemos que cumple esto es ¡cuatro!

 
Es más, si el alfabeto tiene 4 letras, el algoritmo de Grover encuentra la letra a la primera, ¡en un sólo paso! ¿Magia? No. CUÁNTICA. Si somos Dios y queremos diseñar un alfabeto que permita copiar los libros rápidamente con una imprenta cuántica, ¡lo diseñaremos con 4 letras!
 

 
Pero, ¿qué pasa si queremos que los textos sean más cortos? Para ello, necesitamos usar más de 4 letras. Nos vamos a la fórmula del algoritmo de Grover para ver cuál es el siguiente N que necesita un número entero de pasos.
 
 
 Con 2 pasos vemos que N no sale entero. 

 
Pero con 3 pasos N sí sale entero en muy buena aproximación y la probabilidad de dar con la letra es casi del 100%. Es decir, después de 4, el siguiente alfabeto óptimo es el de 20 letras, ¡como el alfabeto con el que están construidas las proteínas!

 Se pueden utilizar alfabetos con un número N de letras entre 4 y 20, pero, entonces, hay que empeorar el algoritmo de Grover para que "rote" menos en cada paso. Ya no sería el algoritmo de búsqueda óptimo.

Los dos mejores alfabetos tienen 4 y 20 letras, como el ADN y las proteínas. Esta coincidencia hizo que el investigador del Instituto de Ciencia de Bangalore, Apoorva Patel, se viniera arriba y propusiera que éste es el motivo evolutivo por el que tenemos 4 bases y 20 aminoácidos.


Por supuesto, la propuesta de Patel no tiene ningún sentido. El algoritmo de Grover no puede funcionar dentro de las células. La decoherencia actúa rápido, por la temperatura en la que están, y por el enorme número de interacciones que ocurren allí entre las moléculas. La decoherencia trae entrelazamientos incontrolados y ya no tenemos los fenómenos necesarios para que haya interferencia constructiva justo en el resultado que corresponde a la respuesta que estamos buscando. Sin interferencia el algoritmo no funciona.
 
Además, en lo que es más útil el algoritmo de Grover es cuando hacemos una búsqueda entre un número muy grande de elementos. Clásicamente, podemos acertar en pocos pasos, o podemos acertar cuando casi hemos dado N pasos. En promedio necesitamos N/2 pasos. Pero con el algoritmo de Grover encontramos el ítem que buscábamos en muchos menos pasos que con los algoritmos de búsqueda clásicos. Aunque no es una mejora tan espectacular como la que realiza el algoritmo cuántico de Shor para factorizar números, es una mejora importante.
Los seres vivos actuales no usan el algoritmo de Grover para replicar el ADN, ni para sintetizar proteínas. Pero, dado que tenemos indicios de que el algoritmo de Grover ocurre de forma natutal (se ha encontrado que los electrones pueden comportarse como un buscador cuántico que sigue este algoritmo al moverse en superficies cristalinas con ciertas características), ¿podrían ser los números 4 y 20 vestigios de unos hipotéticos seres vivos primigenios que, fuera de la Tierra, se reproducían usando algoritmos cuánticos?
 
Lo dudo. Pero espero que el post os haya dado una idea de en qué consiste eso de "pensar cuánticamente" y os haya motivado para estudiar mecánica y computación cuánticas. Si te gustaría estudiar algo de mecánica cuántica, pero te tira para atrás las matemáticas avanzadas que hacen falta, en los vídeos de este curso
puedes aprender el significado de los conceptos básicos, ¡y sólo necesitas matemáticas de 4° de ESO (15 años)!
 
Si quieres saber por qué son 4 bases y 20 aminoácidos ponte a estudiar bioquímica y a investigar sobre el origen de la vida. Este post sólo ha sido una excusa para divulgar algunas de las ideas en las que está basada la computación cuántica.




Sobre el autor: Sergio Montañez Naz es doctor en física teórica y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.
 

Referencias bibliográficas

  • Diao, Z. (2010). Exactness of the Original Grover Search Algorithm. Recuperado el 8 de enero de 2014 de http://arxiv.org/abs/1010.3652v1.
  • Feynman, R. (1982). Simulating physics with computers. International Journal of Theoretical Physics, 21(6&7), 467–488.
  • Galindo, A. y Martín-Delgado, M.A. (2000). A Family of Grover's Quantum Searching Algorithms. Phys. Rev. A, 62, 62303. Recuperado el 16 de octubre de 2013 de arXiv:quant-ph/0009086.
  • Galindo, A. y Martín-Delgado, M.A. (2001). Information and Computation: Classical and Quantum Aspects. Recuperado el 19 de enero de 2014 de http://arxiv.org/pdf/quant-ph/0112105v1.pdf.
  • Grover, L.K. (1996). A Fast Quantum Mechanical Algorithm for Database Search. Proceedings, 28th Annual ACM Symposium on the Theory of Computing (STOC), 212-219. Recuperado el 3 de septiembre de 2013 de arXiv:quant-ph/9605043v3.
  • Lavor, C., Manssur, L.R.U. y Portugal, R. (2003). Grover's Algorithm: Quantum Database Search. Recuperado el 3 de septiembre de 2013 de arXiv:quant-ph/0301079.
  • Long, G.L., Tu, C.C., Li, Y.S., Zhang, W.L. y Yan, H.Y. (1999). A novel SO(3) picture for quantum searching. Recuperado el 22 de noviembre de 2013 de arXiv:quant-ph/9911004.
  • Long, G.L., Xiao, L. y Sun, Y. (2001). General Phase Matching Condition for Quantum Searching. Recuperado el 16 de octubre de 2013 de arXiv:quant-ph/0107013.
  • Roget, Mathieu and Guillet, Stéphane and Arrighi, Pablo and Di Molfetta, Giuseppe (2020). "Grover Search as a Naturally Occurring Phenomenon". Physical Review Letters 124. http://dx.doi.org/10.1007/s12043-001-0131-8
  • Shor, P.W. (1994). Algorithms for quantum computation: Discrete log and factoring. Proceedings of the 35th Annual Symposium on Foundations of Computer Science (STOC), 124-134. Recuperado el 19 de enero de 2014 de http://arxiv.org/abs/quant-ph/9508027.

No hay comentarios:

Publicar un comentario