Nuestro alfabeto tiene 27 letras. Pero el alfabeto con el que está escrita la información genética de todos los seres vivos tiene sólo 4 letras. A su vez, el alfabeto con el que está traducida esa información en las proteínas tiene 20 letras. La razón por la cual toda la vida en la Tierra está basada en cuatro bases nitrogenadas (adenina, timina, citosina y guanina en el ADN) y veinte aminoácidos en las proteínas no parece arbitraria, sino que podría ser la consecuencia de una combinación de factores evolutivos, químicos y físicos. ¿Cuáles son esos factores? ¿Es esa necesariamente la única forma en que la vida podría haber surgido? ¿Qué aspectos históricos de la geología terráquea y contingentes influyeron en esta "decisión" biológica?
Está claro que cuatro bases permiten un sistema de codificación eficiente. Con un alfabeto de 4 bases y combinaciones de tres (tripletes o codones), se pueden codificar 64 posibles combinaciones. Esto es más que suficiente para los 20 aminoácidos esenciales, con redundancia (codones sinónimos) que aumenta la robustez frente a mutaciones. Y los 20 aminoácidos ofrecen una variedad química suficiente para formar proteínas con una amplia gama de funciones, desde catalizar reacciones (enzimas) hasta formar estructuras (colágeno). Ampliar este número no necesariamente habría incrementado la funcionalidad, mientras que usar menos aminoácidos habría limitado la diversidad de estructuras y funciones posibles. Además, las cuatro bases nitrogenadas utilizadas en el ADN son químicamente estables y tienen una alta afinidad por éste, lo que permite una replicación precisa y duradera, y probablemente había una alta disponibilidad de ellas en las regiones de la Tierra donde surgió la vida.
Sin embargo, todos estos argumentos no nos aseguran que puedan existir formas de vida con otro número de bases y de aminoácidos. No hay nada que garantice que la vida en otros planetas use exactamente 4 bases y 20 aminoácidos.
¿Tienen los números 4 y 20 alguna ventaja evolutiva? Como decía Monod, parece que los seres vivos están diseñados con un propósito teleológico (reproducirse) pero, en realidad, esto es sólo una ilusión fruto de su capacidad de replicar su material genético con errores ocasionales sometidos al juego de la selección natural. El principio de objetividad de la naturaleza nos indica que los sistemas naturales no tienen un propósito teleológico, no existen las causas finales aristotélicas. Por eso Monod habla de teleonomía, en vez de teleología.
El número de letras debería ser, desde el punto de vista evolutivo, una ventaja para replicar el material genético. Cuantas más letras tenga un alfabeto, más cortos serán los mensajes. Para imprimir el Quijote hacen falta 2 millones de caracteres. Pero en binario, son bastantes más.
Pero, por otro lado, cuantas más letras tenga un alfabeto, más se tarda en encontrar la letra que queremos copiar si la buscamos en una sopa de letras, que es justo lo que se hace en la replicación del ADN, así que los alfabetos de muchas letras no interesan.
¿Hubo en la Tierra varios competidores y el sistema de 4 y 20 resultó
ser el más eficiente y estable en ese entorno, lo que hizo que se
convirtiera en el único que sobrevivió a la selección evolutiva?
¿Reflejan los números 4 y 20 las condiciones específicas del
entorno químico y físico de la Tierra primitiva, combinadas con las
primeras decisiones evolutivas que resultaron ser lo suficientemente
exitosas para ser preservadas?
¿Por qué 4 bases, y no 2, o 3, o 5? En el año 2000 surgió una idea muy loca para explicar esto ¡basada en la computación cuántica!
Los algoritmos de búsqueda tienen como objetivo localizar un elemento dentro de una base de datos desordenada y son muy importantes en computación. Cuando el número de elementos en la base de datos es muy grande, este proceso puede ser muy largo. Poneos a buscar la letra w en esta foto imaginando que las letras están ordenadas al azar.
¿A que se tarda? 😜 En lo que sigue voy a suponer que la letra que estamos buscando es la w.
Clásicamente la forma óptima consiste en revisar cada elemento hasta encontrar el deseado. Esto implica que, en promedio, el número de pasos necesarios para completar la búsqueda es de (N+1)/2, donde N representa el total de elementos en la base de datos donde estamos buscando.
En 1982, Richard Feynman destacó la dificultad de simular ciertos fenómenos cuánticos con computadoras clásicas, lo que motivó la idea de que la computación cuántica podría ser más eficiente que la que hacemos con ordenadores clásicos. Aunque inicialmente este campo avanzó lentamente, en 1994 Peter Shor marcó un hito con un algoritmo cuántico para la factorización de números enteros que operaba en tiempo polinómico, superando al exponencial de los algoritmos clásicos. Este desarrollo dio inicio formal al campo de la computación cuántica. Shor definió la estructura de un algoritmo cuántico como un operador unitario que transforma un estado cuántico en la solución deseada tras un número específico de aplicaciones. Desde el descubrimiento del algoritmo de Shor, el interés en la computación cuántica ha crecido exponencialmente. No solo los científicos, sino también otros grupos, se han visto atraídos por el potencial de esta tecnología, especialmente por su capacidad para descifrar claves de encriptación.
En 1996, Lov K. Grover presentó un algoritmo de búsqueda cuántico permite buscar en bases de datos desordenadas en aproximadamente √N pasos, una mejora significativa respecto a los métodos clásicos para grandes valores de N. Sin embargo, como muchos algoritmos cuánticos, este es probabilístico, proporcionando el resultado con una alta probabilidad, aunque no siempre del 100%, pero a medida que el tamaño de la base de datos aumenta, el margen de error se reduce notablemente.
Para explicar en qué consiste el algoritmo de Grover, supongamos que cada una de las N distintas letras del alfabeto está con orden al azar y desconocido en una rendija distinta en este experimento de interferencias:
La transformación Uw es difícil de visualizar geométricamente, porque el espacio vectorial de estados cuánticos con el que estamos trabajando tiene N dimensiones. Pero si definimos el estado |k> como la superposición con coeficientes iguales de pasar por todas las rendijas menos por donde está w
Se pueden utilizar alfabetos con un número N de letras entre 4 y 20, pero, entonces, hay que empeorar el algoritmo de Grover para que "rote" menos en cada paso. Ya no sería el algoritmo de búsqueda óptimo.
Referencias bibliográficas
- Diao, Z. (2010). Exactness of the Original Grover Search Algorithm. Recuperado el 8 de enero de 2014 de http://arxiv.org/abs/1010.3652v1.
- Feynman, R. (1982). Simulating physics with computers. International Journal of Theoretical Physics, 21(6&7), 467–488.
- Galindo, A. y Martín-Delgado, M.A. (2000). A Family of Grover's Quantum Searching Algorithms. Phys. Rev. A, 62, 62303. Recuperado el 16 de octubre de 2013 de arXiv:quant-ph/0009086.
- Galindo, A. y Martín-Delgado, M.A. (2001). Information and Computation: Classical and Quantum Aspects. Recuperado el 19 de enero de 2014 de http://arxiv.org/pdf/quant-ph/0112105v1.pdf.
- Grover, L.K. (1996). A Fast Quantum Mechanical Algorithm for Database Search. Proceedings, 28th Annual ACM Symposium on the Theory of Computing (STOC), 212-219. Recuperado el 3 de septiembre de 2013 de arXiv:quant-ph/9605043v3.
- Lavor, C., Manssur, L.R.U. y Portugal, R. (2003). Grover's Algorithm: Quantum Database Search. Recuperado el 3 de septiembre de 2013 de arXiv:quant-ph/0301079.
- Long, G.L., Tu, C.C., Li, Y.S., Zhang, W.L. y Yan, H.Y. (1999). A novel SO(3) picture for quantum searching. Recuperado el 22 de noviembre de 2013 de arXiv:quant-ph/9911004.
- Long, G.L., Xiao, L. y Sun, Y. (2001). General Phase Matching Condition for Quantum Searching. Recuperado el 16 de octubre de 2013 de arXiv:quant-ph/0107013.
- Roget, Mathieu and Guillet, Stéphane and Arrighi, Pablo and Di Molfetta,
Giuseppe (2020). "Grover Search as a Naturally Occurring Phenomenon". Physical Review Letters 124. http://dx.doi.org/10.1007/s12043-001-0131-8
- Shor, P.W. (1994). Algorithms for quantum computation: Discrete log and factoring. Proceedings of the 35th Annual Symposium on Foundations of Computer Science (STOC), 124-134. Recuperado el 19 de enero de 2014 de http://arxiv.org/abs/quant-ph/9508027.
No hay comentarios:
Publicar un comentario