Processing math: 0%

26 dic 2024

Por qué la interferencia cuántica promete revolucionar la computacion

La factorización eficiente de números en sus factores primos constituye, desde hace ya muchas décadas, un desafío crucial en matemáticas y criptografía. El interés en este proceso, que se puede reducir a encontrar el período de una función periódica, viene de que los sistemas de encriptación más utilizados en el mundo digital descansan en la suposición (ampliamente aceptada pero no demostrada rigurosamente) de que es prácticamente imposible factorizar el producto de dos números primos grandes y desconocidos en un tiempo razonable. Esta dificultad es lo que hace que los códigos modernos sean seguros y prácticamente irreversibles. Calcular el producto de dos primos grandes es sencillo, pero determinar cuáles son esos números a partir del resultado es una tarea que, utilizando algoritmos clásicos y los ordenadores actuales, tomaría miles o millones de años.

Sin embargo, el nacimiento de la computación cuántica ha cambiado este panorama. Los ordenadores cuánticos no solo prometen resolver ciertos problemas de manera exponencialmente más rápida que las computadoras clásicas, sino que también tienen el potencial de romper los sistemas de encriptación actuales, como nos mostró por primera vez el algoritmo de Shor, presentado por Peter W. Shor en 1994. Este algoritmo aprovecha el fenómeno de las interferencias que se da en mecánica cuántica para factorizar números semiprimos de manera mucho más eficiente que cualquier algoritmo clásico.

El impacto de esta amenaza no es menor. Sistemas como RSA, que se basan en la dificultad de la factorización para garantizar la seguridad de datos financieros, comunicaciones y otros aspectos de la vida digital, podrían volverse vulnerables ante el poder de una computadora cuántica equipada con el algoritmo de Shor con la suficiente robustez y número de qubits.

Pero, ¿cómo es esto posible? En este post vamos a explicar de maneta pedagógica cómo funciona el algoritmo de Shor, lo vamos a hacer partiendo de la famosa radiografía del ADN de Rosalind Franklin.


23 dic 2024

¿Por qué la vida está basada en 4 bases y 20 aminoácidos?

 

Nuestro alfabeto tiene 27 letras. Pero el alfabeto con el que está escrita la información genética de todos los seres vivos tiene sólo 4 letras. A su vez, el alfabeto con el que está traducida esa información en las proteínas tiene 20 letras. La razón por la cual toda la vida en la Tierra está basada en cuatro bases nitrogenadas (adenina, timina, citosina y guanina en el ADN) y veinte aminoácidos en las proteínas no parece arbitraria, sino que podría ser la consecuencia de una combinación de factores evolutivos, químicos y físicos. ¿Cuáles son esos factores? ¿Es esa necesariamente la única forma en que la vida podría haber surgido? ¿Qué aspectos históricos de la geología terráquea y contingentes influyeron en esta "decisión" biológica?

Está claro que cuatro bases permiten un sistema de codificación eficiente. Con un alfabeto de 4 bases y combinaciones de tres (tripletes o codones), se pueden codificar 64 posibles combinaciones. Esto es más que suficiente para los 20 aminoácidos esenciales, con redundancia (codones sinónimos) que aumenta la robustez frente a mutaciones. Y los 20 aminoácidos ofrecen una variedad química suficiente para formar proteínas con una amplia gama de funciones, desde catalizar reacciones (enzimas) hasta formar estructuras (colágeno). Ampliar este número no necesariamente habría incrementado la funcionalidad, mientras que usar menos aminoácidos habría limitado la diversidad de estructuras y funciones posibles. Además, las cuatro bases nitrogenadas utilizadas en el ADN son químicamente estables y tienen una alta afinidad por éste, lo que permite una replicación precisa y duradera, y probablemente había una alta disponibilidad de ellas en las regiones de la Tierra donde surgió la vida.

Sin embargo, todos estos argumentos no nos aseguran que puedan existir formas de vida con otro número de bases y de aminoácidos. No hay nada que garantice que la vida en otros planetas use exactamente 4 bases y 20 aminoácidos. 

¿Tienen los números 4 y 20 alguna ventaja evolutiva? Como decía Monod, parece que los seres vivos están diseñados con un propósito teleológico (reproducirse) pero, en realidad, esto es sólo una ilusión fruto de su capacidad de replicar su material genético con errores ocasionales sometidos al juego de la selección natural. El principio de objetividad de la naturaleza nos indica que los sistemas naturales no tienen un propósito teleológico, no existen las causas finales aristotélicas. Por eso Monod habla de teleonomía, en vez de teleología.


 

El número de letras debería ser, desde el punto de vista evolutivo, una ventaja para replicar el material genético. Cuantas más letras tenga un alfabeto, más cortos serán los mensajes. Para imprimir el Quijote hacen falta 2 millones de caracteres. Pero en binario, son bastantes más.

Pero, por otro lado, cuantas más letras tenga un alfabeto, más se tarda en encontrar la letra que queremos copiar si la buscamos en una sopa de letras, que es justo lo que se hace en la replicación del ADN, así que los alfabetos de muchas letras no interesan. 

 

¿Hubo en la Tierra varios competidores y el sistema de 4 y 20 resultó ser el más eficiente y estable en ese entorno, lo que hizo que se convirtiera en el único que sobrevivió a la selección evolutiva? ¿Reflejan los números 4 y 20 las condiciones específicas del entorno químico y físico de la Tierra primitiva, combinadas con las primeras decisiones evolutivas que resultaron ser lo suficientemente exitosas para ser preservadas?

¿Por qué 4 bases, y no 2, o 3, o 5? En el año 2000 surgió una idea muy loca para explicar esto ¡basada en la computación cuántica!

 

8 dic 2024

Lo que los agujeros negros nos están enseñando acerca de las leyes de la física: el acoplo IR/UV

Galileo Galilei osserva la lampada nel Duomo di Pisa, affresco di Luigi Sabatelli, Tribuna di Galileo, Firenze.Fechahacia 1841Fuente: http://brunelleschi.imss.fi.it/itinerari/galleria/TribunaGalileo_344.html


Un domingo de 1583 Galileo, cuando era un estudiante de apenas 18 años, no se podía concentrar en sus oraciones en la catedral de Pisa porque había algo curioso que le llamaba la atención y no podía parar de pensar en ello. Había una suave corriente de aire en el interior de la iglesia y una gran lámpara suspendida del techo se movía en forma de vaivén. Según la física de Aristóteles, dominante hasta la época, la lámpara lo que estaba haciendo era un movimiento forzado intentando alcanzar su posición natural, que es estar lo más baja posible. Por mucho que un aristotélico quisiera hacer experimentos de precisión con un péndulo, u objeto similar a esa lámpara, nunca habría llegado a ninguna conclusión interesante porque habría intentado medir la magnitud relevante en ese paradigma: el tiempo que el péndulo tarda en llegar a pararse, en llegar a su posición natural, magnitud que depende de si hay más rozamiento o menos y que poco tiene que decirnos acerca de las leyes de la física.

Sin embargo, Galileo, observando el mismo objeto, supo ver otra cosa: un movimiento periódico, que se repite una y otra vez. Y al hacer esto Galileo apreció algo sumamente sorprendente: el periodo de ese péndulo era independiente de la amplitud si ésta no era demasiado grande. ¡Cualquiera diría que para recorrer un arco más grande tendría que tardar más! Pero no. Este tiempo depende sólo de la longitud del péndulo y de la intensidad del campo gravitatorio, pero no de la amplitud, descubrimiento que nos abrió las puertas a conocer los principios más profundos que gobiernan el funcionamiento del universo.



En esta vida es importante incorporar continuamente las enseñanzas de los 3 grandes maestros que tenemos: el señor libro, el señor calle y el señor viaje, pero, sobre todo, hay que saber hacer lo que hizo Galileo: aprender a mirar lo que siempre hemos visto con ojos diferentes cada vez. A veces no hace falta buscar más mundos, sino aprender a mirar a éste con ojos nuevos.

En este post voy a tratar de explicar por qué los agujeros negros nos están haciendo mirar al universo con ojos completamente diferentes. Se trata de un post que, aunque de introducción al tema, es técnico y está escrito sólo para físicos o estudiantes de física. Si, por el contrario, lo que buscas es una introducción divulgativa a los agujeros negros, te va a interesar más este otro texto. A nivel más técnico en este blog hay ya dos articulos sobre los agujeros negros:
Lo que vamos empezar a ver ahora en este post es qué consecuencias tiene todo lo que hemos aprendido sobre los agujeros negros acerca de las leyes de la física. Los agujeros negros nos están diciendo sobre el universo muchísimas más cosas de las que parece a simple vista, así que, entre este post y su continuación, me dispongo a dar una lista no completa de las grandes lecciones que los agujeros negros nos están haciendo aprender.
 
También tengo que advertir al lector de que, no sólo ocurre que yo no soy experto en este tema, sino, además, que casi todos los que se hacen llamar "expertos en agujeros negros", tampoco lo son. Hay muchas cuestiones básicas sobre los agujeros negros que no tenemos claras, con lo que el contenido de este post va a tener que estar siempre sujeto a revisiones y correcciones. Podéis dejar vuestros comentarios y sugerencias de mejora en la caja que hay al final. Lo agradeceré.
 
 

3 ago 2024

Si hacemos mucho zoom, ¿sigue existiendo la geometría?

 

 
By Jarrokam - Own work, CC BY-SA 4.0, Link

 

El descubrimiento de las geometrías no euclídeas y la formulación de la teoría de la relatividad general nos enseñó, hace ya más de un siglo, que la geometría del mundo físico no corresponde en general a la geometría euclídea que, de manera ingenua, esperábamos y que experimentamos en nuestra vida cotidiana. El nacimiento de la física moderna, con el advenimiento de la relatividad y la física cuántica, nos hizo ver que la naturaleza no tiene la obligación de ajustarse a nuestras percepciones intuitivas y limitadas. La imagen mental que teníamos del universo, construida sobre la base de nuestras experiencias diarias, no reflejaba fielmente la estructura de la realidad.

Por ejemplo, para Kant, el espacio y el tiempo eran las condiciones a priori fundamentales del conocimiento científico, inherentes a la estructura del sujeto, con lo que no provenían de los datos de los sentidos. Eran previos a la experiencia. Como condiciones a priori son universales y necesarios, y son los que hacen posible la experiencia (por ello son denominados también condiciones transcendentales). Para el filósofo de Konigsberg espacio y tiempo son el modo como percibimos todas las impresiones, no poseen contenido empírico y su validez es independiente de la experiencia. Pero en la relatividad general, el espacio y el tiempo se combinan en un solo ente, el espaciotiempo, que se curva y se deforma en presencia de energía. Esta curvatura es descrita por una geometría diferenciable y no euclidiana, conocida como geometría riemanniana (con signatura lorentziana). Las trayectorias de los objetos en movimiento no sometidas a ninguna interacción más que la gravitatoria, incluyendo la luz, no son más que geodésicas en este espaciotiempo, curvado por la distribución de energía concreta que haya. Esto supuso un desafío a la concepción kantiana del espacio y el tiempo. El hecho de que en relatividad general la materia condicione la estructura del espacio-tiempo acaba con la idea de que espacio y tiempo son anteriores a la experiencia. Esto impactço a los pensadores posteriores. Por ejemplo, en la base de la filosofía que caracteriza al Círculo de Viena y a su entorno de influencia, donde habría que añadir a Hans Riechenbach, se encuentran incluidas de forma esencial las enseñanzas epistemológicas y metodológicas que proporciona el estudio del surgimiento de la relatividad, estudio que obliga a un reajuste de la concepción kantiana del espacio y del tiempo. Así, Reichenbach escribía [SánchezRon1985] en 1932:

“La teoría de la relatividad me impresionó inmensamente y me llevó a un conflicto con la filosofía de Kant. La crítica de Einstein al problema del espacio-tiempo me hizo darme cuenta de que el concepto de a priori de Kant no se puede mantener.”


El propio Einstein habló sobre este tema en una conferencia sobre las consecuencias filosóficas de la relatividad en la Academia de Ciencias de Barcelona, durante el viaje que realizó a España en 1923. Para Einstein la relatividad no es contraria a la línea de pensamiento de Kant de considerar que todo conocimiento tiene una base a priori, pero impone algunas restricciones. Con la relatividad especial la simultaneidad pierde su caracterización a priori y con la relatividad general el espacio geométrico a priori también pierde su status. No puede haber geometría aparte de la física [Glick1986].

No obstante, visto a posteriori, el cambio conceptual que supuso la relatividad general sobre nuestra concepción del espaciotiempo no es tan radical como parecía. Después de todo, una variedad diferenciable localmente parece un espacio plano, con lo que el espaciotiempo en relatividad general es isomorfo al espacio de Minkowski en el entorno de cada suceso.

Pero la relatividad general no es una teoría cuántica y, si hacemos mucho zoom y nos vamos al mundo ultramicroscópico, es de esperar que los efectos cuánticos sean predominantes. La pregunta que surge entonces es si la geometría diferenciable de la relatividad general sigue siendo aplicable a escalas de longitud muy pequeña.Y eso es lo que vamos a discutor en este artículo.

 

1 ago 2024

¿Cuál es el significado físico del tamaño gravitacional de un objeto?

 
By Cmglee - Own work, CC BY-SA 4.0, Link

 

La relatividad general es una teoría de la interacción gravitatoria y, a la vez, relativista. Los fenómenos en los que los efectos relativistas de la interacción gravitatoria se manifiestan vienen en esta teoría caracterizados, por tanto, por las constantes fundamentales c y G^N_4, que son respectivamente la velocidad de la luz en el vacío y la constante de gravitación de Newton. En un mundo como el nuestro, con d+1=4 dimensiones espaciotemporales, la constante de gravitación de Newton G^N_4 tiene dimensiones de longitud al cubo partido por masa y partido también por tiempo al cuadrado. Esto hace que, a todo objeto de masa M en relatividad general se le pueda asociar un tamaño virtual, que vamos a llamar tamaño gravitacional del objeto R_G, de valor:
R_G=G^N_4M/c^2
(en lo que sigue trabajaremos con unidades en las que c=1, con lo que longitud y tiempo tienen las mismas dimensiones y escribiremos R_G=G^N_4M). Este tamaño gravitacional del objeto no es en general el tamaño del objeto, sino un tamaño característico de este objeto que es proporcional a su masa. Por ejemplo, el Sol tiene un tamaño que viene dado por un radio de 7 \cdot 10^5km, pero su tamaño gravitacional es de 1,5 km. Y la Tierra tiene un radio de unos 6400 km, pero su radio gravitacional es de unos 4,5 mm. Es decir, desde que entendemos, gracias a Einstein, aunque no sólo a él, cómo son los aspectos relativistas de la interacción gravitatoria, a cada objeto le podemos asignar, además de su tamaño real, otro tamaño "virtual" R_G, que es proporcional a su masa. Como es distinto al tamaño físico del objeto, ¿qué significado físico tiene este tamaño gravitacional? Eso es lo que vamos a explicar en este post.



Antes de la construcción de la relatividad general, en relatividad especial la estructura causal del espacio-tiempo, que es el espacio cuadridimensional de Minkowski, venía descrita por un cono de luz asociado a cada suceso p. Sólo los sucesos en la superficie y en el interior de la parte superior del cono de luz pueden ser influenciados por p, y sólo los sucesos de la superficie y el interior de la parte inferior del cono pueden afectar causalmente a p. En relatividad general, en cambio, la estructura causal del espacio-tiempo viene determinada por la métrica G_{\mu\nu} y, aunque localmente es topológicamente la misma que en relatividad especial, puede haber globalmente muchas diferencias. Una de ellas podría ser que un suceso sea parte del futuro causal de otro suceso y, a la vez, parte de su pasado. Para evitar problemas vamos a restringirnos sólo a espacio-tiempos en los que pueda hacerse una designación continua de qué mitad del cono es el futuro y qué mitad es el pasado.

No obstante, hay otras diferencias de tipo global con Minkowski que sí que son físicamente aceptables, como la que exista una región del espacio-tiempo, denominada agujero negro, de forma que ninguna partícula o rayo de luz pueda escapar hacia el exterior de ésta. Es claro que esta definición tiene que ser matizada de alguna forma, ya que, de lo contrario, el futuro causal de cualquier suceso del espacio tiempo sería un agujero negro. Para ello hay que especificar cuál es la región del espacio-tiempo de posible escape. Vamos a restringir nuestra atención a espacio-tiempos que sean asintóticamente planos, es decir, que se hagan minkowskianos "lejos'' de alguna "región central" y esto "en todo instante de tiempo''. Para la presente discusión no necesitamos más detalles. Una definición rigurosa de espacio tiempo asintóticamente plano viene dada en [Wald1984]. Los espacios asintóticamente planos representan en relatividad general sistemas aislados. Podemos así dar la definición de que un agujero negro es una región del espacio-tiempo situada en esa "región central'' desde la que no es posible escapar hacia la región asintótica. Su frontera, que es una superficie nula, se denomina horizonte de sucesos.

Empecemos repasando algunas soluciones concretas de tipo agujero negro que aparecen en teorías que contienen la gravitación, para luego tratar el tema de forma más general. Este es un post técnico, para estudiantes universitarios de física. Si lo que buscas es un post de divulgación sobre agujeros negros, apropiado para quien tenga conocimeintos de física de nivel de Bachillerato, es mejor que leas este otro artículo.

La solución de Schwarzschild


En relatividad general, la acción para el campo gravitatorio en ausencia de materia, denominada de Einstein-Hilbert es
S_{EH}\left[ G\right] =\frac 1{16\pi G_4^N}\int dx^4\sqrt{G}R\left[ G\right]
Las ecuaciones de movimiento clásicas que se derivan de esta acción son
R_{\mu \nu }=0
La única solución esféricamente simétrica (teorema de Birkhoff) de estas ecuaciones es la solución de Schwarzschild:
ds^2=-fdt^2+f^{-1}dr^2+r^2d\Omega _2^2
donde f=1-\frac{R_S}{r}., siendo R_S una constante con unidades de longitud que caracteriza a la solución y que se llama radio de Schwarzschild. Esta solución tiene las siguientes propiedades:
  • Es una solución asintóticamente plana. Eso significa que esta solución describe un objeto o conjunto de objetos situado en el espacio de Minkowski.
  • Es también una solución constante, ya que existe un sistema de coordenadas, las de las fórmulas anteriores, en el que los coeficientes de la métrica son independientes de una coordenada, t en este caso, que hace de tiempo universal. Otra forma de verlo es que el vector que genera las traslaciones de t es un vector de Killing. Como, en rigor, un campo gravitatorio producido por varios objetos que sólo interaccionan gravitatoriamente nunca puede ser constante, porque su atracción gravitatoria mutua daría lugar a un movimiento, podemos decir que se trata del campo gravitatorio producido por un sólo objeto.
  • Además, es una solución estática, porque es constante y las componentes G_{0\alpha} de la métrica son nulas (donde aquí \alpha es un índice espacial). Ese objeto no tiene rotación.
  • Si consideramos sólo el caso R_S>0, en r=R_S algunos coeficientes de la métrica divergen. Pero esto no quiere decir que en r=R_S haya una singularidad real. El análisis de los invariantes de curvatura revela que se trata sólo de una singularidad de coordenadas, es decir, que aparece sólo como consecuencia de que las coordenadas que se están usando no cubren esa región del espacio-tiempo. El uso de otros sistemas de coordenadas, como por ejemplo las de Kruskal-Szekeres, pone de manifiesto que r=R_S es un horizonte de sucesos [waldrg1984]. La región interior r<R_S es un agujero negro.
  • Aunque R=0 y R_{\mu \nu }R^{\mu \nu }=0 en todos los puntos, hay otros invariantes de curvatura, como por ejemplo R^{\mu \nu \rho \sigma}R_{\mu \nu \rho \sigma }=\frac{48\left( \frac{R_S}{2G_4^N}\right)^2\cos ^2\theta }{r^6}+... que divergen en r=0. Esto pone de manifiesto que en r=0 hay una singularidad real, que sigue estando sea cual sea el sistema de coordenadas que se use. 

Kruskal diagram of Schwarzschild chart.svg
By Dr Greg, CC BY-SA 3.0, Link

Penrose diagram for the Kruskal extension of Schwarzschild spacetime. The angular coordinates θ, φ are suppressed so that each point of the diagram can be thought of as representing a 2-sphere of radius r.
Estas figuras  anteriores muestran la máxima extensión analítica de la solución de Schwarzschild, denominada extensión de Kruskal. Los dos diagramas son de tal forma que los conos de luz están inclinados 45^{\circ} en todos los puntos. Se observan cuatro regiones:
  • La región I, región asintóticamente plana y exterior al agujero negro.
  • La región II, el interior del agujero negro. Todo observador en su interior acabará en el futuro en la singularidad.
  • La región III, asintóticamente plana.
  • La región IV, un agujero blanco. Todo observador en su interior tiene una singularidad en su pasado y acabar\á, en el futuro, o en la región I o en la IV.
Esta solución de Schwarzschild, al igual que el resto de soluciones de tipo agujero negro, representa un objeto muy extraño. No podemos decir, como en el caso de una estrella, un planeta o una estrella de neutrones, que se trata de materia (energía) localizada en cierto volumen del espacio, de tal forma que la masa (energía) de ese objeto se obtiene integrando la densidad de energía a lo largo de todo el volumen del objeto. En el caso de un agujero negro el área del horizonte de sucesos sí está bien definida, y viene dada por A=4\pi R_S^2, pero no podemos definir el volumen de su interior, porque en el interior del agujero negro la coordenada t deja de ser temporal para pasar a ser espacial, mientras que la coordenada r se convierte en una coordenada temporal. Así que no podemos decir que ahí la solución sea constante. Además, la densidad de energía, que viene dada por la componente T_{00} del tensor energía impulso, es nula en todas partes en el caso de un agujero negro, porque se trata de una solución de las ecuaciones de Einstein en el vacío.

En la relatividad general no existe un método preciso general para calcular la masa exacta de un objeto integrando alguna cantidad en el interior de éste. La masa del agujero negro o de cualquier otro cuerpo celeste solo se puede calcular con precisión desde el exterior, por ejemplo, comparando cómo es la métrica lejos del objeto con el límite newtoniano -G_{00}=1+2\phi/c^2, siendo \phi el potencial gravitatorio. Así es como se define la masa de Arnowitt-Deser-Misner (ADM) del objeto, que en el caso del agujero negro de Schwarzschild es M=\frac {R_S}{2G_4^N}. Podemos decir que la masa ADM es el numerador de la fracción que determina la desviación de la componente G_{00} con respecto a la de Minkowski lejos del objeto, es decir, viendo cómo es el campo gravitatorio del objeto lejos de éste. Sin embargo, eso no significa que el interior del agujero negro, región II, sea la causa del campo gravitatorio que hay en su exterior, región I, aunque ambas regiones están continuamente conectadas. En el caso de un agujero negro, esta interpretación de la causa y el efecto está estrictamente prohibida porque el espacio-tiempo externo no pertenece al cono de luz futuro del interior. Nada de lo que ocurra o que haya en el interior del agujero negro puede influir en la región exterior. Al contrario, la singularidad del agujero negro es una consecuencia del fuerte campo gravitacional que ha existido alrededor del objeto, y podemos considerar que ese objeto es pura geometría. Recordemos que en la física de Newton el campo gravitatorio se podía interpretar como una consecuencia secundaria causada por los objetos, que son primarios, e incluso se podía considerar que era simplemente un concepto matemático auxiliar sin existencia física. Pero en relatividad, al existir una velocidad máxima de propagación de las interacciones, los campos gravitatorios son tan reales como los objetos con masa y están constituidos por la métrica del espaciotiempo.

Pero, además, este campo gravitatorio tiene consecuencias sorprendentes para los objetos que se mueven a través de él. Para verlo, consideremos dos observadores situados en la región I: Alice, que está en caída libre hacia el agujero negro, y Bob, que se mantiene alejado del agujero negro y a una distancia fija con respecto a los observadores asintóticos. Supongamos además que Alice está enviando señales de forma periódica a Bob. Entontes, la métrica de Schwarzschild nos dice que estas señales serán recibidas por Bob separadas cada vez con un intervalo temporal mayor, ya que el coeficiente G_{00} de la métrica se va haciendo cada vez más pequeño a medida que nos acercamos al horizonte de sucesos. Si Bob pudiera detectar todas estas señales (formadas por fotones de frecuencia cada vez más pequeña), la caída de Alice le parecería estar congelándose, hasta que llega un momento (para el que Bob tiene que esperar un tiempo infinito pero Alice un tiempo finito) en el que Bob no recibe nada. El horizonte de sucesos precisamente está formado por las trayectorias de los primeros rayos de luz enviados por Alice (por todas las Alice que caen al agujero negro desde todos los ángulos) y que nunca llegan a Bob (prolongadas también hacia el pasado). Lo sorprendente aquí es que esas trayectorias de esos rayos de luz que definen el horizonte, aunque para Alice son trayectorias espaciotemporales que se mueven a la velocidad de la luz, para Bob forman una superficie esférica estática de área A=4\pi R_S^2 que, al llegar Alice a ella, se queda ahí congelada.

Pero, por el principio de equivalencia, para Alicia no ocurre nada espacial cuando atraviesa este horizonte. Acaba de pasar una frontera irreversible, pero ella simplemente sigue notando que está en caída libre (ingravidez) y, si su tamaño es pequeño comparado con el tamaño asociado a la curvatura en el horizonte, que es del orden R_S=2GM/c^2, grande para los agujero negros astrofísicos, ni siquiera va a notar que las fuerzas de marea se hayan incrementado mucho. De hecho, aunque a Bob le parece que Alice tarda infinito tiempo en llegar desde un punto de coordenada r exterior al agujero negro hasta el horizonte de sucesos, el intervalo de tiempo propio para Alice es finito. Por ejemplo, si Alice partió en línea recta hacia el agujero negro desde muy lejos con energía cinética prácticamente nula, el tiempo propio que tarda Alice en ir desde r hasta el horizonte R_S es de \frac{2}{3\sqrt{2GM}}(r^{3/2}-R_S^{3/2}).

No es hasta que Alicia se acerca a la singularidad que empieza a notar unas enormes fuerzas de marea, haciéndose infinitas en la singularidad, a la que llega también en un tiempo finito \frac{2}{3\sqrt{2GM}}R_S^{3/2}. Esta singularidad es como el final del tiempo en esta descripción. Pero como la relatividad general deja de ser válida allí, no sabemos qué ocurre en ese punto. De hecho, es muy difícil asignar significado físico al entorno de la singularidad, ya que, no sólo Alice, sino cualquier aparato de medición ahí sería automáticamente destruido sin posibilidad alguna de enviar la información fuera del agujero negro. Desde dentro el agujero negro ya no se ve como algo estático. Todo colapsa en la singularidad.

Sin embargo, es importante remarcar que lo que hace que un agujero negro sea un agujero negro no es la singularidad, sino la existencia del horizonte. Esa es la la definición que hemos dado porque es el horizonte el que hace que los agujeros negros objetos tan sean especiales. Si R_S>0, es decir, M>0, la singularidad está cubierta por el horizonte, en el sentido de que nada que ocurra en la singularidad puede afectar a un observador lejano en la región asintóticamente plana debido a que r=0 está dentro del agujero negro. Pero si hiciéramos R_S<0, entonces no ocurre esto porque no hay horizonte. En ese caso no habría agujero negro y se dice entonces que r=0 sería una singularidad desnuda. Nótese que esta condición implicaría que M<0, pero no debemos llamar a esta solución "agujero negro de masa negativa". No existen los agujeros negros de masa negativa. En primer lugar, porque no hay ninguna simetría en la solución de Schwarzschild entre M>0 y M<0, ya que el caso M<0 es una solución de naturaleza completamente distinta, sin horizontes, con una singularidad desnuda, y, en segundo lugar, porque la solución con M<0 no puede ocurrir en una teoría consistente de la gravedad porque causaría que el vacío fuera inestable, ya que se podrían producir regiones de energía negativa y positiva en pares a partir del vacío, sin violar ninguna ley de conservación.


La solución de Reissner-Nordström


Consideremos ahora el campo gravitatorio acoplado a un campo gauge A_\mu . La acción de este sistema, denominada de Einstein-Maxwell, es:
S_{EM}\left[ G,A\right] =\frac 1{16\pi G_4^N}\int dx^4\sqrt{G}R\left[ G\right] +\int d^4x\sqrt{G}\left[ -\frac 14F_{\mu \nu }F^{\mu \nu }\right]
donde F=dA. Las ecuaciones de movimiento clásicas que se derivan de esta acción son
R_{\mu \nu }=8\pi G_4^NT_{\mu \nu }
\nabla _\mu F^{\mu \nu }=0
donde T_{\mu \nu }=F_{\mu \rho }F_\nu ^{\quad \rho }-\frac 14G_{\mu \nu }F_{\rho \sigma }F^{\rho \sigma } es el tensor energía impulso asociado al campo gauge y \nabla es la derivada covariante. La única solución esféricamente simétrica de estas ecuaciones que contiene como caso
particular a la solución de Schwarzschild es la solución de Reissner-Nordström [ortin]:
ds^2=-fdt^2+f^{-1}dr^2+r^2d\Omega _2^2
F_{tr}=\frac{4G_4^NQ}{r^2}
donde f=\frac{\left( r-r_{+}\right) \left( r-r_{-}\right) }{r^2}, r_{\pm}=G_4^NM\pm r_o y r_o=G_4^N\sqrt{M^2-4Q^2}. Esta solución tiene las siguientes propiedades:
  • Es una solución estática y asintóticamente plana.
  • Su masa ADM es M.
  • Está cargada eléctricamente con carga Q respecto del campo gauge, en el sentido de que Q=\frac 1{16\pi G_4^N}\int_{S_\infty ^2}*F, donde S_\infty ^2 es la 2-esfera centrada en r=0 de radio R\rightarrow \infty . Es decir, Q se puede interpretar como la carga total del espacio-tiempo. Nótese que hemos definido así la carga eléctrica para que tenga unidades de masa (hablaremos de esto más adelante en otro post cuando definamos las unidades de Planck).
  • Presenta una singularidad en r=0.
  • Si M>2\left| Q\right| hay un horizonte en r=r_{+}, pero también hay un horizonte interno en r=r_{-}, es decir, la singularidad en los agujeros negros cargados (y también los que tienen rotación) se encuentra cubierta por dos horizontes. Un aspecto extraño de estas soluciones es que hay infinitas maneras de extender la geometría del espacio-tiempo más allá del horizonte interno: las ecuaciones de Einstein dejan de producir extensiones únicas. En esta figura viene representado el diagrama conforme de una extensión analítica de la solución en el caso M>2\left| Q\right|. El diagrama es periódico. Al contrario de lo que ocurre en Schwarzschild, un observador en el interior del agujero negro puede evitar la singularidad y salir a otra región del espacio-tiempo asintóticamente plana.
1: Penrose diagram of a typical Reissner-Nordström spacetime.
  • Si -2\left| Q\right| <M<2\left| Q\right| las constantes r_{+} y r_{-} son complejas y no hay horizontes. La singularidad está desnuda.
  • Si M<-2\left| Q\right| las constantes r_{+} y r_{-} son reales y negativas y no hay horizonte. La singularidad está desnuda.
  • El caso especial M=2\left| Q\right| se denomina solución de agujero negro extremal o extremo. En ella, hay un sólo horizonte en r=r_{+}=r_{-}= G_4^NM cubriendo la singularidad. La relación que hay entre la carga y la masa de un agujero negro extremo de Reissner-Nordström permite que existan en la teoría soluciones estáticas que describan varios agujeros negros de este tipo en equilibrio [Ortin2015]. Como veremos más adelante en otro post, estas soluciones de agujero negro extremal son muy interesantes para la física teórica. Sin embargo, no tienen interés para la astrofísica. Es difícil que los objetos astrofísicos tengan carga neta y, si este agujero negro la tiene, entonces la fuerza eléctrica con la que repelería a una carga q lejana del mismo signo (o atraería a la de signo contrario) sería proporcional a qQ, mientras que la fuerza gravitatoria de atracción sobre esa carga, de masa m, sería proporcional a mM. Dado que, para el electrón se tiene q/m ~ 10^{21}, y para el protón q/m ~ 10^{18}, si Q/M ~ 10^{-18} la fuerza eléctrica con a que el agujero negro repele cargas del mismo signo sería mayor que la fuerza gravitatoria con la que las atrae, lo que hace prácticamente imposible que un agujero negro astrofísico pueda tener Q/M  >  10^{-18}, quedando lejísimos de ser extremal.  

Hay que señalar que la estructura causal del agujero negro extremal de Reissner-Nordström es completamente distinta de la del caso M>2\left| Q\right| , da igual lo cerca que se esté del caso extremal. Esto sugiere que las propiedades físicas de estas soluciones pueden tener discontinuidades en M=2\left| Q\right| , con lo que el estudio del agujero negro extremo no puede hacerse tomando el caso no extremo y luego haciendo el límite M\rightarrow 2\left| Q\right| .
 
Si consideramos a las partículas que hoy en día consideramos elementales, como los leptones y los quarks, como si fueran bolitas de tamaño muy pequeño (inferior a 10^{-21} m, ya que hasta esa distancia no hemos detectado que tengan estructura interna), entonces se trataría de bolita muy densas, pero el hecho de que tengan carga eléctrica impiden que se las pueda tratar como agujeros negros, ya que estaría en el régimen en el que la carga supera a la masa, con lo que habría que tratarlas como singularidades desnudas. Pero ni siquiera podemos hacer esto, porque, debido a la mecánica cuántica, las partículas con poca masa están deslozalizadas cuánticamente en un tamaño muy superior, asunto que explicamos en otro post.


Generalizaciones de la solución de Reissner-Nordstrom


En primer lugar, hay que señalar que la teoría que estamos considerando aquí, la de Einstein-Maxwell, permite soluciones de tipo agujero negro, no sólo con cargas eléctricas, sino también magnéticas, dando lugar a lo que se llaman agujeros negros diónicos de Reissner-Nordström. Una forma de obtenerlos es partir de la solución de Reissner-Nordstrom y hacer uso de una dualidad, denominada dualidad S, que tiene la teoría [Ortin2015].

Pero si, además, añadimos a la acción de Einstein-Maxwell la acción de un campo escalar \phi con potencial plano (como ocurre genéricamente en teoría de cuerdas si no están los moduli estabilizados) y dejamos que el acoplo gauge g(\phi) dependa de este campo escalar,
S_{EM\phi}\left[ G,A\right] =\frac 1{16\pi G_4^N}\int dx^4\sqrt{G}R\left[ G\right] +\int d^4x\sqrt{G}\left[ -\frac 14F_{\mu \nu }F^{\mu \nu }+2\vert d\phi\vert^2\right]
entonces se pueden obtener más soluciones de tipo agujero negro que generalizan a los agujeros de Reissner-Nordstrom diónicos. En efecto, el hecho de que el campo escalar tenga un potencial plano hace que cada valor asintótico posible \phi_\infty que puede tomar este campo escalar asintóticamente en el infinito determine un vacío distinto de la teoría efectiva. Al conjunto de todos estos vacíos se le denomina espacio de moduli de la teoría. Típicamente es una variedad parametrizada por todos los campos escalares con potencial plano donde hay definida una métrica que se obtiene del término cinético de la acción de estos campos escalares. En el caso sencillo que estamos considerando, con sólo un campo escalar, la métrica es un tensor 1x1 cuya única componente asignamos el valor 1. Al ser el valor de este potencial plano cero, entonces podemos estudiar cuáles son las soluciones de tipo agujero negro de esta teoría que asintóticamente tienen en el infinito al espacio de Minkowski con un valor del campo escalar concreto \phi_\infty, y así es como pueden obtenerse soluciones de tipo agujero negro que son generalizaciones de los agujeros negros diónicos que han sido estudiados extensivamente en la literatura.

Un ejemplo más complicado puede verse en los agujeros negros de mi tesis doctoral, que son soluciones de la teoría efectiva que surge de compactificar la teoría de cuerdas tipo IIB con una variedad de tipo Calabi-Yau, en donde los campos escalares, que parametrizan la estructura compleja del Calabi-Yau, cambian a medida que nos acercamos al agujero negro. Si se analizan estas soluciones, se puede ver que en el caso no extremal el valor de los moduli \phi_h en el horizonte va a depender de los valores \phi_\infty fijados en el infinito. Pero en el caso extremal lo que se encuentra siempre es que los valores \phi_h de los moduli en el horizonte están completamente determinados por las cargas Q y P (eléctricas y magnéticas) del agujero negro y son independientes de los valores asintóticos \phi_\infty. El punto correspondiente del espacio de moduli \phi_h=\phi(P,Q) se denomina punto del atractor.

En todas las esquinas de la teoría de cuerdas donde tenemos control la dependencia del acoplo gauge con los campos escalares es de tipo exponencial. Así, en este ejemplo sencillo de un solo campo escalar tomaremos g=e^{-a\phi}, donde a es una constante positiva. Como el acoplo gauge g(\phi)\rightarrow 0 cuando \phi\rightarrow \infty, la región asistótica en el espacio de moduli es una región de acoplo gauge débil, en la que la simetría local que genera la interacción gauge se convierte en una simetría global. Puede demostrarse que en este caso sencillo [Garfinkle:1990qj,Draper:2019utz] la métrica de la solución no extremal para un agujero negro con carga Q y masa M es:

ds^2=-fdt^2+f^{-1}dr^2+r^2R^2d\Omega_2^2

donde

f=\left(1-\frac{r_+}{r}\right)\left(1-\frac{r_-}{r}\right)^{\frac{1-a^2}{1+a^2}},\quad R= \left(1-\frac{r_-}{r}\right)^{\frac{a^2}{1+a^2}},

y r_-,r_+ son las posiciones del horizonte interno y externo respectivamente, que vienen dadas como función de Q,M. El campo escalar y el campo gauge varían con la distancia al horizonte de sucesos de la siguiente manera

phi=\phi_\infty-\frac{1}{a}\log R,\quad F_{tr}=\frac{4G_4^Ne^{+a(\phi-\phi_\infty)}Q}{r^2}


El caso extremal corresponde con r_h\equiv r_-=r_+, lo que ocurre cuando r_h=(1+a^2)G_4^NM=\sqrt{1+a^2}G_4^NQe^{+a\phi_\infty} e implica que f=R^{2/a^2}. Como R(r\rightarrow r_h)\rightarrow 0, \phi diverge en el horizonte (volviéndose así independiente de \phi_infty), el acoplo gauge tiende a cero en el horizonte y el área del horizonte A=r_h^2 R(r_h)^2 también se hace arbitrariamente pequeña. Por eso a este tipo de soluciones se les denomina agujeros negros pequeños [Sen199,Sen1994]. Es importante señalar que la existencia teórica de estos agujeros negros pequeños es independiente de cual sea la función g(\phi) siempre que ésta cumpla condición de tender a cero cuando \phi tiende a infinito [Hamada2021]. Como veremos en un post posterior, los agujeros negros pequeños, aunque ausentes en astrofísica, juegan un papel muy importante en el estudio de las consecuencias que tiene la gravedad cuántica sobre la física de baja energía.



La solución de Kerr-Newman


La solución de Kerr-Newman es una familia de soluciones estacionarias de la acción de Einstein-Maxwell (sin campo escalar o con campo escalar constante) con tres parámetros M, Q y a:
ds^2=-\left[1-\frac{2MrG_4^N-4q^2\left(G_4^N\right)^2}{\Sigma}\right]dt^2+2G_4^Na\frac{\left[2MrG_4^N-4q^2\left(G_4^N\right)^2\right]sen^2\theta}{\Sigma}dtd\phi-
-\frac{\Sigma}{\Delta}dr^2+\Sigma d\theta^2-\frac{\Gamma}{\Sigma}d\phi^2
A_{\mu}=\frac{4G_4^NQr}{\Sigma}\left[\delta_{\mu t}-\delta_{\mu\phi}aG_4^Nsen^2\theta\right]
donde
\Sigma=r^2+a^2cos^2\theta \left(G_4^N\right)^2
\Delta=r^2-2MrG_4^N+4Q^2\left(G_4^N\right)^2+a^2\left(G_4^N\right)^2
\Gamma=\Sigma\left[r^2+a^2\left(G_4^N\right)^2\right]+\left[2MrG_4^N-4Q^2\left(G_4^N\right)^2\right]a^2\left(G_4^N\right)^2sen^2\theta
Esta solución tiene las siguientes propiedades:
  • Su masa ADM es M
  • Su momento angular de rotación ADM es J=aMG_4^N
  • Está cargada eléctricamente con carga Q respecto del campo gauge. La rotación hace que la solución también tenga momento dipolar magnético.
  • Presenta una singularidad en los puntos donde r^2+a^2\left(G_4^N\right)cos^2\theta=0, denominada singularidad de anillo.
  • Si M^2\geq 4Q^2+a^2 la solución describe un agujero negro con horizonte en r=r_{+}=G_4^NM+G_4^N\sqrt{M^2-4Q^2-a^2} y un horizonte interior en r=r_{-}=G_4^NM-G_4^N\sqrt{M^2-4Q^2-a^2}.
  • Si M^2< 4Q^2+a^2, no hay agujero negro y la singularidad está desnuda.

El colapso gravitatorio y el significado físico del tamaño gravitacional


Consideremos la extensión de Kruskal de la solución de Schwarzschild. Se trata de una solución de las ecuaciones de Einstein en el vacío, con lo que representa una posible estructura del espacio-tiempo en
relatividad general. Pero no hay ningún motivo para pensar que haya alguna región del universo que corresponda a esta solución extendida, ya que harían falta dos regiones asintóticamente planas junto con una singularidad en la región IV que las conectara en el pasado.

Penrose diagram for the Kruskal extension of Schwarzschild spacetime. The angular coordinates θ, φ are suppressed so that each point of the diagram can be thought of as representing a 2-sphere of radius r.

No obstante, sí que puede generarse parte de esta solución partiendo de una configuración físicamente razonable. Supongamos un cuerpo esférico de masa M y de radio R>2G_4^NM. El campo gravitatorio en esta configuración viene dado por la solución de Schwarzschild en el exterior r>R y por la denominada solución interior de Schwarzschild en r<R [Wald1984], una solución esféricamente simétrica de las ecuaciones de Einstein con materia y sin horizonte. Debido a que se tiene la solución de Schwarzschild sólo en r>R>R_S=2G_4^NM, esta configuración no es un agujero negro. Pero Oppenheimer y Snyder en 1939 demostraron que es posible que, en ciertas condiciones, el cuerpo sufra una disminución de su radio de forma que se llegue a que R se haga menor que 2G_4^NM y que este proceso puede ocurrir para cualquier densidad, siempre que la masa del objeto que colapsa sea lo suficientemente grande. Consideremos entonces un partícula de la superficie del cuerpo cuando R está ya muy cerca de 2G_4^NM. Sobre ella actúan diversas fuerzas debido a la interacción con otras partículas del cuerpo y también lo que podemos llamar la fuerza gravitatoria (en el molusco de referencia hecho por relojes imaginarios situados cada uno en una posición r constante) . Como el campo gravitatorio en la posición de la partícula, que viene dado por la solución de Schwarzschild, es muy intenso en ese molusco de referencia al estar la partícula muy cerca de r=2G_4^NM, todas las fuerzas sobre la partícula son despreciables frente a la gravitatoria [Landau]. Por tanto, la trayectoria de la partícula, que representa el movimiento de la superficie del cuerpo macroscópico, será aproximadamente una geodésica de la solución de Schwarzschild. Como hemos comentado anteriormente, el estudio de esta geodésica revela que, en un tiempo propio finito de la partícula, ésta llegará a la posición r=0 sin haber notado nada especial al pasar por r=2G_4^NM. Por tanto, en un tiempo propio finito para un observador que se encuentre en la superficie del cuerpo, el cuerpo colapsará. Como Schwarzschild es la única solución esféricamente simétrica de las ecuaciones de Einstein en el vacío, el colapso gravitatorio de este cuerpo esférico necesariamente producirá un agujero negro de Schwarzschild. Podemos decir, por tanto, que la existencia de agujeros negros es una condición necesaria que viene de la combinación del principio de equivalencia de la relatividad general con el principio de velocidad máxima de propagación de las interacciones.
 
Es necesario aclarar que, para que una distribución de materia pueda colapsar a un agujero negro, no es necesario que ésta tenga una alta densidad si es una distribución lo suficientemente grande. En efecto, la densidad es la masa entre el volumen y, como la masa de un agujero negro es proporcional a su radio, mientras que el volumen es proporcional al radio al cubo, lo que se obtiene es que la densidad de un objeto apunto de colapsar a un agujero negro decae como el inverso del radio al cuadrado. Es decir, cuanto mayor sea este objeto apunto de colapsar, menor es su densidad.

A su vez, cuando menor sea el objeto apunto de colapsar, mayor será su densidad, y esto dificulta que se puedan formar agujeros negros pequeños. Esto es así porque, para que un cuerpo colapse, es necesario que la interacción gravitatoria (atractiva) venza a las demás interacciones repulsivas que pueda haber, pero el hecho de que la interacción gravitatoria sea la más débil de todas las interacciones implica que típicamente son necesarias grandes masas para que la gravedad gane la partida. Un cuerpo del tamaño de un kilómetro o algo mayor que esté apunto de colapsar a un agujero negro tendrá una masa M=r/(2G_4^N) del oden de magnitud de la de las estrellas y, por tanto, una densidad d=M/V muy alta, similar a la del núcleo de un átomo o algo menor. Bajo ciertas condiciones a veces ocurre que una estrella se comprime hasta esas densidades, con lo que son abundantes los agujeros negros en el universo que vienen del colapso de una estrella y también agujeros negros supermasivos en el centro de las galaxias. Sin embargo, para que se puedan formar agujeros negros más pequeños que un kilómetro, el objeto apunto de colapsar debería tener una densidad mucho mayor que la nuclear y, para que puedan formarse objetos así se requiern fuerzas de compresión superiores a la interacción nuclear fuerte. Con el modelo estándar de la física de partículas eso no se puede, pero sí que es posible que existan agujeros negros primordiales pequeños, formados en el universo temprano, mediante interacciones que no conocemos y que se manifiestan a las energías típicas que habia en el universo primitivo.

Lo que sí ocurre es que la existencia de agujeros negros nos garantiza que no podemos concentrar una masa dada en un volumen tan pequeño como queramos ya que, una vez nos acerquemos, disminuyendo el tamaño, a su radio de Schwarzschild, ésta colapsará a un agujero negro de ese tamaño. Ese es el significado físico que tiene el tamaño gravitacional de un objeto. La existencia de agujeros negros en relatividad general nos dice que todos los objetos en esta teoría tienen asociado, además de su tamaño, un tamaño gravitacional R_S=2G^N_4M, de tal forma que si su tamaño fuera comprimido hasta ese tamaño gravitacional, el objeto colapsaría a un agujero negro, objeto que no podemos decir que tenga asociado un volumen, pero sí un área A=4\pi R_S^2 asociada a su horizonte de sucesos.

La geometría del espacio-tiempo correspondiente a este proceso de colapso viene representada en la siguiente figura:


En ella no aparecen ni la región III ni la IV de la extensión de Kruskal, lo que nos sugiere que estas regiones no son físicamente realistas, como explican, en estos dos vídeos, David Pereñíguez y Gastón Giribet:
 
En el vídeo de Gastón se explica también que, aunque para un observador asintótico el astro tarda infinito tiempo en colapsar (y la materia que cae sobre éste también tarda infinito tiempo en atravesar el horizonte), y aunque para el que colapsa y/o cae ese tiempo es finito, el objeto que cae no puede recibir información de todo lo que ocurre en el futuro a los observadores que se quedan en la región asintótica ya que, cuando muere en la singularidad hay un último rayo de luz que le llega de la región asintótica y ya no recibirá más información de esta región.

En el caso del colapso gravitatorio de un cuerpo esféricamente simétrico cargado eléctricamente con M>2\left| Q\right| , que produce un agujero negro de Reissner-Nordström, al igual que ocurre en el caso anterior, hay regiones de la extensión de la solución de Reissner-Nordström que no se generan. No obstante, según cómo sea el cuerpo, el colapso terminará en una singularidad o el cuerpo dejará de
contraerse y empezará a expandirse en otra región asintótica del espacio-tiempo.

Vemos, por tanto, que el colapso esférico descrito anteriormente no es la única situación en la se predice la formación de una singularidad. De hecho, los teoremas de singularidad (bien resumidos en [Wald1984]) prueban que estas predicciones no son consecuencia de haber considerado situaciones con un alto grado de simetría, sino que son aspectos genéricos del colapso gravitatorio. Es decir, la relatividad general predice su propia ruptura. Aunque los teoremas de singularidad no prueban que las singularidades vayan necesariamente asociadas a curvaturas grandes, se espera, en general, que la descripción clásica de la gravitación que proporciona la relatividad general deje de ser válida cerca de las singularidades porque los efectos cuánticos jueguen un papel dominante.


Las Conjeturas de la Censura Cósmica


Si bien el estudio del colapso de un cuerpo esféricamente simétrico se simplifica bastante debido a teoremas como el de Birkhoff, el estudio del colapso no esférico es muy complicado. Una cuestión importante es saber si, en un colapso, en general no esférico, es posible que aparezcan singularidades desnudas. La evidencia más fuerte que se tiene de que esto no es posible viene del estudio de la evolución de perturbaciones lineales del colapso esférico, que siempre dan lugar a agujeros negros, en vez de singularidades desnudas. De aquí viene la conjetura, denominada de censura cósmica (en su formulación débil), de que, si se tiene un sistema aislado en una situación físicamente razonable, la naturaleza se las apaña para que, si se produce en la evolución de este sistema colapso gravitatorio, se llegue a una situación en la que todas las singularidades que se hayan formado no puedan ser vistas por un observador distante.

Una condición que se requiere para que la situación inicial sea físicamente razonable es que se cumpla la condición de energía dominante: que la velocidad de los flujos de energía asociados a la materia sea menor o igual que la de la luz. Si t^\mu es un campo vectorial tipo tiempo dirigido hacia el futuro, esta condición puede expresarse matemáticamente diciendo que -T_\nu ^\mu t^\nu es un campo
vectorial tipo tiempo dirigido hacia el futuro o es tipo nulo. Por ello, si n^\mu es un campo vectorial que no es de tipo espacio, entonces:
T_\nu ^\mu t^\nu n_\mu \geq 0
Esta condición implica la denominada condición de energía débil, que establece que la densidad de energía de materia que mide cualquier observador, sea cual sea su movimiento, es no negativa.

Un argumento a favor de la formulación débil de la conjetura del censor cósmico es el teorema de positividad de la energía, que establece que la masa ADM de todo espacio-tiempo que sea solución de la ecuación de Einstein con un tensor energía-impulso que satisface la condición de energía dominante es no negativa y sólo se anula para el espacio-tiempo plano (bien explicado en [Ortin2015]. Pero la masa del espacio-tiempo contiene tanto la energía asociada al campo gravitatorio como la asociada a la materia y a todos los demás campos. En el colapso gravitatorio de un cuerpo, la energía gravitatoria de ligadura, que es siempre negativa, crece en valor absoluto. Si el proceso continua, llegaría un momento en el que la
energía gravitatoria se hiciera mayor en valor absoluto que la energía asociada a la materia y el resto de campos, con lo que se violaría el teorema de positividad de la energía. Por ello, lo que se espera es que,
antes de que se llegue a esta situación, aparezca un horizonte de sucesos.

Hay otra versión de la conjetura del censor cósmico, que fue la que formuló Penrose [Penrose] inicialmente, que se denomina conjetura de censura cósmica fuerte, ya que, en vez de aplicarse a observadores distantes en un espacio-tiempo asintóticamente plano, se aplica a cualquier observador en cualquier espacio tiempo. Esta versión afirma que, aparte de una posible singularidad inicial como la del big bang, ninguna singularidad es visible por ningún observador (el espacio tiempo debe ser globalmente hiperbólico).

Es importante señalar que la versión fuerte de la conjetura del censor cósmico no implica la débil. Podemos poner como contraejemplo cualquier situación en la que, en un espacio-tiempo asintóticamente plano, se forme una singularidad que se propaga por una geodésica nula hacia el exterior. Esto violaría la formulación débil, pero no la fuerte. Tampoco la débil implica la fuerte. Son conjeturas independientes.

En el colapso gravitatorio de un cuerpo esféricamente simétrico de masa M>0, que da lugar a la formación de un agujero negro de Schwarzschild, no se viola ninguna de las dos versiones dadas de la conjetura del censor cósmico: ya hemos dicho que un observador en el exterior del agujero negro
no puede ver la singularidad, y uno que cruce el horizonte tampoco, ya que ésta, al ser de tipo espacio, está siempre en su futuro. En cambio, en el agujero negro de Reissner-Nordström, que se forma en el colapso gravitatorio de un cuerpo esférico cargado de masa M>2\left| Q\right| , aunque se respeta la versión débil de la conjetura, se viola la fuerte: el hecho de que las singularidades sean de tipo tiempo permite en principio que un observador que haya entrado en el agujero negro las evite, emergiendo en una nueva región el espacio-tiempo asintóticamente plana, de forma que, a lo largo de este viaje, este observador ha podido ver las singularidades. Por eso la versión original de la conjetura de censor cósmico, que era la fuerte, tuvo que ser suavizada para dar lugar a la versión débil. No obstante, si, como resultado de la perturbación que supone el observador, el horizonte interior r=r_{-} se convirtiera en una singularidad de tipo espacio, entonces se salvaría la conjetura fuerte. Es decir, la conjetura de censura cósmica fuerte implica que los horizontes interiores, que, como hemos indicado anteriormente, exponen situaciones en las que las ecuaciones de Einstein no tienen una solución única (en su lugar, tienen muchas), también se evitan, porque son inestables. Siempre que se añadan a estas soluciones alguna perturbación que involucre materia que cumpla con condiciones energéticas razonables, la perturbación crecería exponencialmente y, una vez que llegue a ese horizonte, el espacio-tiempo se volvería singular. Es decir, en las situaciones físicamente realistas el horizonte interior debe ser sustituido por una singularidad

Nótese que ambas conjeturas, la fuerte y la débil, implican que el espacio-tiempo no puede extenderse suavemente mediante las ecuaciones de Einstein en algunas situaciones, y esto lo hacen para que ningún observador pueda obtener datos de las singularidades sin acabar en ellas, para que no pueda obtener ninguna información de aquellas situaciones en las que la relatividad general falla. Sin embargo, no hay ningún motivo para pensar que la relatividad general tenga que protegerse a sí misma frente a lo que miden los observadores de esa manera. Después de todo, sólo se trata de una teoría efectiva, aproximada, a baja energía. Cuando el espacio-tiempo se vuelve singular o se acerca a las condiciones de los horizontes interiores, nuevos términos y nuevos grados de libertad pueden perfectamente entrar en juego y cambiar completamente lo que ocurre para que sea consistente sin que sean necesarias las conjeturas de censura cósmica fuerte ni débil.

En el caso de la débil, hablaremos de ella más adelante en otro post, pero en el caso de la fuerte ya tenemos claro que no es cierta. Se ha demostrado [DefermosLuk] que si realmente perturbas un poco las condiciones iniciales todavía es posible extrapolar el espaciotiempo (es decir, todavía existe localmente una solución de las ecuaciones de Einstein) un entorno finito más allá del horizonte interior del agujero negro. Al contrario de lo que dice la conjetura de la censura cósmica fuerte, el espaciotiempo puede continuar en uno que tiene que incluir una singularidad de tipo luz, en vez de de tipo espacio, así que un observador que cayera al agujero negro en principio sí podría medir información que viene de la singularidad antes de morir y la relatividad general no es capaz de proporcionar predicciones únicas para esas mediciones. Pero una teoría más completa puede producir mediciones únicas. Es sí, si la conjetura de censura cósmica débil es cierta, esas singularidades no pueden transmitir su información al observador asintótico que observa el agujero negro desde fuera de éste. 


La ley de máxima tensión

El hecho de que los objetos en relatividad general tengan asociado un tamaño gravitacional tal que, si el objeto se pudiera comprimir hasta ese tamaño, colapsaría para formar un agujero negro tiene también otra consecuenca sorprendente. Para verlo, consideremos dos objetos de masas M_1 y M_2 separados por una distancia D. La fuerza gravitacional entre ellos es, aproximadamente,

F = \frac{G M_1 M_2}{D^2} = \left(\frac{GM_1}{c^2D}\right) \left(\frac{GM_2}{c^2D}\right) \frac{c^4}{G}.

Sin embargo, M_1 M_2 no puede exceder \frac{1}{4} (M_1 + M_2)^2 y, por lo tanto,

F \leq \left(\frac{G(M_1 + M_2)}{c^2 D}\right)^2 \frac{c^4}{4G}.

Para asegurarnos de que se trata de dos objetos separados, y no de un agujero negro, se tiene que cumplir que G( M_1 + M_2) < c^2 D. Por tanto, la tensión o fuerza entre dos cuerpos no puede exceder el valor

F_g = \frac{c^4}{4G} \approx 3.025 \times 10^{43} Newtons.

Cada vez que intentamos superar este límite de fuerza, aparecen horizontes de sucesos que nos lo impiden.
 
Análogamente, hay una máxima potencia que se puede ejercer, de valor:

P_g = \frac{c^5}{4G} \approx 9.1 \times 10^{51} W.

Y un valor máximo para la tasa de cambio de masa de un objeto:

\frac{dM}{dt} = \frac{c^3}{4G} \approx 1.0009 \times 10^{35}  kg/s.

 

 

Los Teoremas de Unicidad


El estudio de la evolución con el tiempo de perturbaciones en los agujeros negros de Schwarzschild, Reissner-Nordström (y sus generalizaciones) y Kerr-Newman muestra que, en todos los casos, las perturbaciones decaen de forma que los momentos multipolares más altos del campo gravitatorio y el campo gauge, y todos los de cualquier campo escalar que pudiera haber, son radiados hacia el exterior, con lo que la situación final estacionaria es uno de los agujeros negros descritos anteriormente. De hecho, este resultado no es una propiedad particular de pequeñas perturbaciones. Se tienen los denominados teoremas de unicidad, que pueden resumirse en que no hay agujeros negros estacionarios con momentos de campos escalares (ausencia de ''pelo'' escalar) y, además, el único agujero negro estacionario con
  • M distinta de cero, Q=0, J=0 y el resto de campos triviales es el de Schwarzschild.
  • M distinta de cero, Q=0, J distinto de cero, y el resto de campos triviales es el de Kerr, que es la solución de Kerr-Newman en la que Q=0.
  • M distinta de cero, Q distinta de cero, J=0 y el resto de campos triviales es el de Reissner-Nordström.
  • M, Q, y J distintos de cero y el resto de campos triviales, es el de Kerr-Newman.

Nótese, sin embargo, que estos teoremas no implican que no puedan existir soluciones estacionarias con momentos prohibidos, como, por ejemplo, momento dipolar eléctrico o pelo escalar, sino que estas soluciones, de existir, no tienen horizonte de sucesos que cubra la singularidad. Por ello, de existir, no se espera que representen situaciones físicamente aceptables al violar la conjetura del censor cósmico en su versión débil. Asímismo, estos teoremas tampoco prohíben situaciones no estacionarias de tipo agujero negro con pelo escalar. No obstante, se espera que el proceso de colapso gravitatorio de cualquier cuerpo alcance al final una situación estacionaria. Esto da lugar a la denominada conjetura de ausencia de pelo: sea cual sea el cuerpo que colapsa, el agujero negro al que da lugar tiene unas características que sólo dependen de su masa, sus cargas (conservadas localmente) y su momento angular.


Las leyes Clásicas de los Agujeros Negros


Acabamos de ver que el estado de un agujero negro estacionario en relatividad general viene descrito por sólo un conjunto reducido de parámetros como son M, Q y J. Esto es análogo a lo que ocurre en termodinámica, donde el estado macroscópico de un sistema viene dado, si éste está en equilibrio, por un conjunto reducido de parámetros externos, por ejemplo, la energía interna E y el volumen V. Esta analogía es manifiesta si tenemos en cuenta las siguientes leyes sobre agujeros negros, deducidas en el contexto clásico de la relatividad general [Wald1984]:
  • (Ley cero) Para todo agujero negro estacionario puede verse que existe un campo vectorial de Killing \chi^{\mu} que es normal al horizonte. Al ser el horizonte nulo, entonces \chi_{\mu}\chi^{\mu}=0 en el horizonte. De aquí puede deducirse que la cantidad \kappa^2=-\frac{1}{2}\left(\nabla^{\mu}\chi^{\nu}\right)\left(\nabla_{\mu}\chi_{\nu}\right) denominada gravedad de superficie es constante en todo el horizonte.
  • (Primera ley) El campo vectorial de Killing \chi^{\mu} no coincide en general con el Killing temporal \xi^{\mu}, de forma que se define la velocidad angular del horizonte \Omega_H como \chi^{\mu}=\xi^{\mu}+\Omega_H\psi^{\mu} , donde \psi^{\mu} es el Killing axial, normalizado para que sus órbitas cerradas tengan periodo 2\pi. \xi^{\mu} se normaliza, al igual que \chi^{\mu}, para que \xi^{\mu}\xi_{\mu}=-1 en el infinito. Si sobre este agujero negro estacionario realizamos una pequeña perturbación con simetría axial, entonces puede demostrarse que la masa cambia en: \delta M=\frac{\kappa}{8\pi G_4^N}\delta A + \Omega_H\delta J+ \phi_H\delta q, donde A es el área del horizonte y \phi_H es el potencial electrostático A^0 en el horizonte, que se obtiene al pasar a un sistema de referencia que rota con el horizonte.
  • (Segunda ley) El teorema del área de los agujeros negros establece que, dada una solución de tipo agujero negro que verifique que R_{\mu\nu}k^{\mu}k^{\nu}\geq0 (lo que se cumple para toda solución de las ecuaciones de Einstein con materia en la que la materia verifique la condición de energía dominante) el área del horizonte nunca decrece. Así, si se tiene inicialmente un agujero negro en situación estacionaria y se realiza una cierta perturbación, la nueva situación estacionaria a la que el sistema evoluciona tiene un área del horizonte igual o mayor al de la situación inicial. La relatividad general nos dice que, aunque la entrada de materia en un agujero negro es un proceso irreversible, la masa de un agujero negro puede decrecer. Un agujero negro en rotación puede perder masa si su momento angular de rotación decrece, pero el área de su horizonte de sucesos nunca decrece en relatividad general.
  • (Tercera ley) Es imposible llegar, mediante una sucesión finita de procesos físicos, a la situación en la que \kappa=0.
Nótese, además, que las cantidades \kappa, \phi_H y \Omega_H sólo están definidas en el caso de agujeros negros estacionarios, de la misma forma que la temperatura T o la presión P sólo están definidos en sistemas termodinámicos en equilibrio. En cambio, A puede definirse en cualquier agujero negro estacionario o no, de la misma forma que la entropía se puede definir también para sistemas termodinámicos que no están en equilibrio. De todo esto, tenemos la correspondencia:
A\sim S
\kappa\sim T
entre las magnitudes que caracterizan el estado de un agujero negro y las que caracterizan el estado de macroscópico de un sistema termodinámico.
 
Nótese que, si un agujero negro no tuviera entropía, como parece que nos dice su ausencia de pelo, entonces el proceso en el que éste se forma, o el proceso en el que éste traga materia, violaría la segunda ley de la termodinámica. Por ello, sí parece razonable asignarle a los agujeros negros una entropía. Esta entropía debe ser una medida del número distinto de formas en las que se ha podido formar un agujero negro de masa M, momento angular J y carga Q. Y el teorema del área de los agujeros negros es lo que llevó a Bekenstein a proponer que esa entropía debe ser proporcional al área del horizonte de sucesos.

No obstante, la propuesta de Bekenstein adolecía de un problema. Supongamos que un agujero negro de Schwarzchild de masa M traga un poco de radiación térmica a temperatura T_r. Si la radiación térmica tragada tiene energía E\ll Mc^2, entonces su área A=4\pi (GM/2)^2=\piG^2M^2 aumenta en un un valor \delta A=2\pi G^2 M E. Sin embargo, la entropía que tenía la radiación térmica absorbida era S=4E/3T. Si la temperatura de la radiación absorbida es pequeña, entonces es seguro que el agujero negro al final va a acabar teniendo menos entropía de la que tenían el agujero negro inicial más la radiación, con lo que este proceso violaría la segunda ley de la termodinámica, incluso aun habiendo asignado una entropía al agujero negro.
 
Además, clásicamente, \kappa\sim T es sólo de una analogía formal. \kappa no puede ser proporcional a la temperatura física del agujero negro, ya que clásicamente es imposible que un agujero negro esté en equilibrio térmico (o termoquímico) con un sistema de partículas o radiación como consecuencia de que nada puede escapar del agujero negro, mientras que sí que pueden entrar partículas en su interior. Pero el mundo no es clásico, sino cuántico, así que...
 
La continuación de este artículo está en:
 
Sobre el autor: Sergio Montañez Naz es doctor en física teórica y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.
 
 

 Referencias bibliográficas

  • Dafermos and J. Luk J. (2017) The interior of dynamical vacuum black holes I: The C0-stability of the Kerr Cauchy horizon. preprint, 2017, arXiv:1710.01722
  • Draper and S.~Farkas S. (2019) "Transplanckian Censorship and the Local Swampland Distance Conjecture,'' JHEP 01 (2020), 133 doi:10.1007/JHEP01(2020)133 [arXiv:1910.04804 [hep-th]].
  • Garfinkle D., Horowitz G. T., Strominger A. (1992), "Charged Black Holes in String Theroy", Phys. Rev. D, 1991, 43, 3140, doi:10.1103/PhysRevD.43.3140, [Erratum: Phys.Rev.D 45, 3888 (1992)]. 
  • Gibbons G.W.(2002), The Maximum tension principle in general relativity,'' Found. Phys. 32 (2002), 1891-1901. doi:10.1023/A:1022370717626 [arXiv:hep-th/0210109 [hep-th]]. 
  • Hamada Y. and Vafa C. (2021), 8D Supergravity, Reconstruction of Internal Geometry and the
    Swampland, JHEP 06 (2021) 178, [2104.05724].
  • Landau, L. D. and Lifshitz, E. M. (1992). "Teoría Clásica de los Campos". Volumen 2 del Curso de Física Teórica. Reverté. Primera edición. Barcelona.
  • Lüst D, Vleeshouwers W (2018), "Black Hole Information and Thermodynamics" (arXiv:1809.01403)
  • Ortín T. Gravity and Strings, Cambridge University Press, 2015, ISBN 978-0-521-76813-9, 978-0-521-76813-9, 978-1-316-23579-9 doi:10.1017/CBO9781139019750.
  • Penrose, R. (1979). "Singularities and Time Asymmetry". En Hawking, S.W., Israel, W.: "General Relativity", 581-638.
  • Sen A. (1995), Extremal black holes and elementary string states, Mod. Phys. Lett. A 10 (1995)
    2081{2094, [hep-th/9504147].
  • Sen A. (1994), Black hole solutions in heterotic string theory on a torus, Nucl. Phys. B 440 (1995)
    421{440, [hep-th/9411187].
  • Wald R.M. (1984), General Relativity, Chicago Univ. Pr., 1984, doi:10.7208/chicago/9780226870373.001.0001

6 sept 2023

Si rompiendo núcleos de átomos obtenemos energía, ¿por qué uniéndolos también?

Conocemos como energía nuclear al uso de reacciones nucleares que liberan energía para generar calor. Básicamente, existen dos formas de liberar energía a partir de los núcleos de los átomos:

  • la fisión nuclear, que es una reacción nuclear o un proceso de desintegración radioactiva en el que el núcleo de un átomo se divide en partes más pequeñas (núcleos más ligeros). Esta energía liberada es la que se usa con frecuencia en turbinas de vapor para producir electricidad en las centrales nucleares.
Dominio público, https://commons.wikimedia.org/w/index.php?curid=486924
  • la fusión nuclear, que es una reacción en la que dos núcleos atómicos se fusionan para formar un núcleo más pesado. Los reactores de fusión nuclear aún no son económicamente viables, pero esta tecnología se encuentra actualmente en investigación y podría ser viable en algunas décadas.
Deuterium-tritium fusion.svg
Por Wykis - Trabajo propio, basado en w:File:D-t-fusion.png, Dominio público, https://commons.wikimedia.org/w/index.php?curid=2069575

Si dividir un núcleo en dos núcleos más pequeños libera energía, parecería que combinar dos núcleos más pequeños en un núcleo más grande requeriría energía, no liberarla, porque es el proceso inverso. Con la fisión nuclear obtenemos energía en las centrales nucleares rompiendo núcleos. Con la fusión, obtenemos energía uniéndolos, que es lo contrario. Pero el inverso de un proceso exotérmico es un proceso endotérmico, no obtienes energía, la pierdes. Acabamos de experimentar lo que se denomina un conflicto cognitivo


¿Cómo es esto posible? Eso es lo que vamos a intentar explicar en este post a un nivel de bachillerato.

12 jul 2023

No es verdad que los físicos restemos infinito a infinito


"A los físicos, mientras funcione, llámale lo que quieras. ¿Delta de Dirac como función? Dale. ¿El cálculo te da infinito? Pues réstale infinito y ya". Es posible que hayas oído o leído en Twitter algún comentario parecido a éste.



De alguna manera se ha instalado en el imaginario colectivo que la física es como el "lado oscuro" de las ciencias exactas y que los métodos poco rigurosos que practicamos los físicos pervierten a los jóvenes desviándolos del camino correcto, el de la matemática pura e inmaculada.


Sin embargo, como ya he explicado en otro post, las matemáticas no sólo tienen las dos caras de las que tradicionalmente nos han hablado, el álgebra y la geometría, sino que los conceptos matemáticos tienen también típicamente un significado físico (en modelos que se pueden aplicar a nuestro universo o no) que no se debe ignorar ni cuando aprendemos matemáticas ni cuando hacemos investigación puntera en matemática moderna. Mucho más que el rigor, es la interacción entre álgebra, geometría y física la que da a las matemáticas toda la potencia que tienen, y esto ha sido así ya desde tiempos de Descartes y Fermat. Pero es que, además, hay veces en las que se acusa a los físicos de ser demasiado poco rigurosos injustamente. Un ejemplo de esto es lo que ocurre con la renormalización en teorías efectivas.



Para ilustrarlo sin tener que irme a la teoría cuántica de campos, disciplina que muy pocos físicos, entre los que yo no estoy, dominan realmente, voy a poner un ejemplo de mecánica cuántica básica que se estudia en el grado de Física. Supongamos una partícula cuántica que se mueve en un mundo de dos dimensiones. Vamos a denotar su posición en coordenadas polares como (r,\phi). Supongamos que esta partícula está sometida a un pozo de energía potencial que toma un valor constante negativo -U_0 dentro del círculo r<a, pero que se anula si r>a.

En ese caso, la mecánica cuántica nos dice que, si la energía E de la partícula es positiva, entonces esta energía no está cuantizada, sino que puede tomar cualquier valor real positivo y la partícula se va a poder mover por todo el plano. Pero, si E<0, entonces sólo están permitidos algunos valores discretos concretos de la energía, que se corresponden con estados ligados de la partícula en los que la función de onda de la partícula sólo toma valores no despreciables dentro del círculo o, si es fuera, cerca de éste, ya que para r>a la función de onda decae como una exponencial a medida que nos alejamos del círculo.
Supongamos, además, que a es muy pequeño comparado con las distancias que somos capaces de medir. Se puede demostrar entonces [LSS2005] que, al ser a pequeño, incluso aunque la profundidad del pozo U_0 sea muy pequeña, siempre va a haber algún estado ligado, algún estado con energía E<0. Cuando la cantidad adimensional
\tilde{g}= \frac{ m \pi U_0 a^2}{\hbar^2}
es mucho más pequeña que uno, el estado fundamental tiene aproximadamente una energía
E_0=-\frac{\hbar^2}{2ma^2} \exp \left(  -\frac{2\hbar^2}{mU_0a^2}  \right)
Como \tilde{g}<1, se tiene que | E_0 |<\frac{\hbar^2}{2ma^2}, y no hay estados excitados (en cuando excitamos a la partícula para que vaya a un nivel más alto que el fundamental ésta ya tendría energía positiva y escaparía del pozo).

Pero, ¿qué pasa si no somos capaces de explorar distancias tan pequeñas como a, que es lo que nos pasa ahora mismo con los aceleradores de partículas actuales? En ese caso, al hacer física, no vamos a poder describir la energía potencial a la que está sometida la partícula mediante ninguna función que describa la forma microscópica que tiene el pozo. En este mundo de juguete que estoy tomando como ejemplo los físicos sabemos, porque lo medimos experimentalmente, que la partícula tiene un estado ligado con energía negativa E_0 (un número que nos dan los experimentos). Pero no sabemos si el potencial al que está sometida la partícula es cuadrado o si tiene otra forma. No tenemos ningún indicio de que el pozo tenga grosor, así que se nos puede ocurrir describir este pozo mediante una delta de Dirac, que es una distribución matemática infinitamente estrecha. En efecto, como la delta de Dirac se puede definir como el límite, cuando a \to 0 de una función que vale \frac{1}{\pi a^2} dentro del círculo, y que se anula fuera, el potencial al que está sometida la partícula se puede aproximar, siempre que no exploremos distancias más pequeñas o del orden de a , por
U(r,\phi)\simeq -\frac{\hbar^2\tilde{g}}{2 \pi r m}\delta(r) 

Sin embargo, si nos da por tratar de resolver la ecuación de Schrödinger independiente del tiempo para la partícula sometida a ese potencial tipo delta de Dirac
\left( \frac{\hbar^2}{2m} \nabla^2 -\frac{\hbar^2 \tilde{g}}{2 \pi r m}\delta(r) \right) \psi(r,\phi)=E \psi(r,\phi)
al pasar al espacio de momentos
\frac{p^2}{2m} \tilde{\psi}(p) -\frac{\pi a^2 U_0}{2 \pi }\psi(r=0)=E \tilde{\psi}(p)
se obtiene una ecuación inconsistente a no ser que
\frac{1}{\tilde{g}}=\frac{1}{2\pi m} \int_0^\infty dp \frac{p}{\frac{p^2}{2m}-E_0}
ecuación que no se puede cumplir porque la integral es divergente.

Repito lo que está ocurriendo. Los físicos hemos hecho un modelo para explicar el comportamiento de una partícula que sabemos que tiene un estado ligado en un pozo que ni siquiera sabemos si tiene anchura. Este modelo consiste un un potencial de tipo delta de Dirac. Sin embargo, haciendo cálculos para que el modelo sea consistente, nos sale que el parámetro que tiene el modelo, el factor \frac{1}{\tilde{g}} , diverge, se hace infinito. Tenemos un problema bastante grande, ¿verdad?


Pues bien, un problema parecido lo tienen de forma rutinaria todos los físicos y las físicas de partículas. Éstos trabajan siempre con teorías cuánticas de campos, que son teorías cuánticas en los que hay uno o varios osciladores (bosónicos y/o fermiónicos) en cada punto del espacio y acoplados entre ellos. Y resulta que, incluso en la teorías cuánticas de campos más simples, casi cualquier cálculo que se haga que tenga en cuenta efectos cuánticos da como resultado una integral en cantidades de movimiento que diverge. Y, ¿qué es lo que hacen estas señoras y estos señores para resolverlo? ¿Le restan a 1/\tilde{g}, que sale infinito, otro infinito para que salga un resultado finito como critican algunas personas que han estudiado poca física? No. Lo que hacen es darse cuenta de que, al poner los límites de la integral en la cantidad de movimiento entre cero e infinito, se han ido más allá del rango de validez de su modelo. No podemos considerar en nuestro modelo momentos demasiado grandes, porque eso significaría, por la mecánica cuántica, que estamos explorando distancias h/p mas pequeñas que a, y para esas distancias ya se nota que el potencial que hay realmente no era una delta de Dirac. Pero, claro, ni saben lo que vale la anchura a ni saben qué forma tiene el pozo. Así que, para evitar hacerlo mal, los físicos y las físicas de partículas ponen a mano un valor máximo, un cut-off en el momento. Es decir, en vez de integrar hasta infinito, integran hasta un valor máximo
p_{m}<h/a,
En realidad, todas las teorías cuánticas de campos de interés en física son realmente teorías efectivas, aproximaciones a baja energía de una teoría más completa, con lo que es necesario establecer un cut-off en el momento en todas ellas. Incluso en las teorías cuánticas de campos libres (en las que los campos no interaccionan entra sí), que son las más sencillas que hay, tenemos un oscilador en cada punto del espacio. Estrictamente dentro de esa teoría cuántica de campos podemos excitar este grado de libertad a energías arbitrariamente altas. Pero no nos podemos olvidar de que toda la materia y energía del universo está sometida a la interacción gravitatoria y, una vez que tenemos en cuenta la gravedad, seguro que esa teoría cuántica de campos deja de ser una descripción válida en alguna escala en la cantidad de movimiento antes de llegar a la escala de Planck, porque cuando se concentra suficiente densidad de energía en una región pequeña del espacio, ésta colapsará para formar un agujero negro, con lo que no es posible excitar esos osciladores a energías tan altas como se quiera sin salirnos de la teoría cuántica de campos. Como muy tarde, a la escala de Planck la teoría cuántica de campos tiene que dejar sí o sí de ser una buena aproximación al comportamiento de la naturaleza.

En el modelo de juguete de mecánica cuántica de una partícula que nos atañe, al introducir el cut-off p_m en el momento se obtiene
\frac{1}{\tilde{g}}=\frac{1}{2\pi } \left[ \log \left( \frac{p_m^2/(2m)}{|E_0|}+1 \right) \right]
En esta ecuación se puede ver que, para no salirnos del régimen de \tilde{g}<<1 en el que estamos trabajando y, a la vez, poder ver el estado ligado de energía negativa E_0 con nuestra teoría efectiva de bajo momento, el cut-off p_m en el momento tiene que cumplir:
|E_0|<\frac{p_m^2}{2m}<\frac{\hbar^2}{2ma^2}
con lo que podemos escribir la siguiente expresión para el parámetro de nuestro modelo efectivo
\frac{1}{\tilde{g}}=\frac{1}{2\pi } \log \left( \frac{p_m^2/(2m)}{|E_0|} \right)
Pero, claro está, el valor concreto del cut-off p_m es arbitrario, lo hemos introducido a mano. ¿Eso es ser poco riguroso? No. Podemos definir nuestra teoría efectiva (la teoría en la que la partícula interacciona con la delta de Dirac en este caso) para cualquier cut-off que esté en el intervalo anterior y hemos cogido un valor dentro de ese intervalo. Eso se puede hacer.

Pero, ¿qué hacemos ahora? ¿Mandamos el cut-off a infinito y, al mismo tiempo, \frac{1}{ \tilde{g} } también a infinito de tal manera que |E_0| se mantenga finito e igual a la cantidad que se mide experimentalmente? Aunque muchos físicos de partículas abusan del lenguaje y dicen que, al renormalizar una teoría, es esto lo que hacen, en realidad lo que están haciendo es darse cuenta de que p_m y \tilde{g} no son cantidades que existen en la naturaleza. Son magnitudes inventadas por nosotros. Las hemos creado para poder construir la teoría efectiva (ya que la forma concreta del potencial que hay en la naturaleza a nivel microscópico, que es un potencial cuadrado en este caso, es desconocida). La teoría o modelo efectivo que nos hemos inventado consiste en un potencial delta de Dirac. \tilde{g} nos da el acoplo de la partícula con una delta de Dirac que no existe, y p_m el momento máximo que puedo considerar en esa teoría efectiva sin que ésta deje de ser una buena aproximación a la realidad.

Como \tilde{g} y p_m son magnitudes que no existen, les puedo dar el valor que quiera dentro de los rangos descritos arriba, pero no de cualquier forma. Sus valores tienen que estar relacionados mediante la última ecuación que hemos puesto, ecuación que nos dice cómo corre el acoplo \tilde{g} a medida que vamos aumentando p_m. Lo que creíamos que son constantes de la naturaleza, en realidad dependen de la escala de distancias a las cuales se está explorando la naturaleza. A esta variación del acoplo con la escala de distancia, es decir, momento (o energía), con la que estamos trabajando se denomina flujo del grupo de renormalización, y es una característica propia que tienen las teorías efectivas, desde el modelo de juguete que acabamos de describir hasta el mismo Modelo Estándar de la física de partículas, característica que entendemos perfectamente desde los trabajos de Kenneth Wilson y colaboradores en los años 70 del pasado siglo. Nótese que el nombre "grupo" aquí no es muy afortunado ya que, en matemáticas, un grupo es un conjunto de transformaciones en el que todas tienen transformación inversa. Sin embargo, al estudiar cómo varían los coeficientes del lagrangiano o del hamiltoniano de una teoría al disminuir el cut-off (lo que se denomina integrating out a momentum shell) lo que estamos haciendo es llevar a cabo un proceso irreversible en el que nos estamos olvidando los detalles microscópicos que sólo pueden detectarse con momentos más altos que el cut-off. Un nombre más adecuado sería el de "monoide de renormalización" o, si además surpriminos el elemento neutro (la transformación "no hacer nada"), entonces el nombre correcto sería "semigrupo de renormalización". 

Nótese que, en el ejemplo de juguete que hemos puesto, la teoría efectiva no tenía ninguna escala de distancia o momento, ya que la ecuación de Schrödinger de una partícula sometida a un potencial delta de Dirac en dos dimensiones se queda igual si multiplicamos todas las distancias por el mismo factor. Sin embargo, a través del grupo de renormalización, la escala de distancias h/\sqrt{2m|E_0|} , que da el orden de magnitud de la anchura de la función de onda en la teoría microscópica, surge dinámicamente en la teoría efectiva. Una cosa parecida ocurre en la cromodinámica cuántica, donde, aunque los quarks no tuvieran masa, tampoco es invariante de escala por ese motivo. A este fenómeno, en el que aparece una escala a partir de un acoplo en una teoría que parecía invariante de escala se le denomina transmutación dimensional.

Para que una teoría no tenga ninguna escala es necesario, no sólo que su lagrangiano a nivel clásico no la tenga, sino también que esta invarianca de escala se mantenga también al tener en cuenta los efectos cuánticos. A las teorías así, si son también relativistas, se las denomina teorías de campos conformes (Conformal Fiel Theories, CFT), ya que ahí la invariancia de escala se junta con el grupo de Poincaré para formar el grupo conforme.

De lo dicho en el anterior párrafo se desprende que, para que una teoría cuántica de campos sea conforme hace falta que los acoplos tomen un valor correspondiente a un punto fijo de grupo de renormalización, es decir, que este valor de los acoplos sea tal que no cambia al aplicarle el flujo del grupo de renormalización. La derivada de los acoplos con respecto al cut-off tiene que ser cero para ese valor concreto. Para que ese punto fijo no sea trivial, este valor donde la derivada es nula tiene que ser finito o cero, ya que un valor infinito en los acoplos implicaría que los experimentos a baja energía no podrían excitar ningún grado de libertad. En el caso contrario, en el que el punto fijo corresponde a acoplo nulo, a ese punto fijo se le denomina gaussiano, ya que el único término no nulo en el lagrangiano sería el de los términos correspondientes a la energía cinética, de tal forma que la integral de camino de Feynman de la teoría estaría formada por integrales de gaussianas.

Nótese también que hemos podido construir una teoría efectiva que nos da predicciones correctas en buena aproximación, porque hemos fijado como valor de E_0 el que se obtiene experimentalmente, y hemos hecho al resto de parámetros correr con el cut-off para que ese valor de E_0 se quede fijo. Esta teoría es predictiva porque, una vez fijado E_0 a su valor experimental, el resto de infinitas cantidades que te permite calcular la teoría (por ejemplo, probabilidades de encontrar la partícula en tal o cual sitio dadas unas condiciones iniciales) se pueden comparar con lo que nos dicen el resto de datos experimentales (infinitos posibles) y, dentro del régimen en el que la teoría efectiva es una buena aproximación, van a coincidir las predicciones teóricas con los resultados de los experimentos. Pero, si el número de parámetros que hubiéramos necesitado fijar, como nos ha pasado con E_0, hubiera sido infinito, entonces la teoría efectiva no habría sido predictiva.

Por tanto, dependiendo de si la teoría efectiva, definida por debajo del cut-off, necesita un número finito de parámetros (como E_0 en el ejemplo) o infinito, se dice que esta teoría es renormalizable o no. Ejemplos de teorías renormalizables son las teorías con libertad asintótica (como la del ejemplo que hemos dado y la cromodinámica cuántica), en las que el acoplo se va a cero al hacer crecer el cut-off hacia energías asintóticamente altas (lo que llamamos el ultravioleta), o las teorías que son invariantes de escala (ya acabamos de decir que la del ejemplo, el potencial bidimiensional tipo delta de Dirac, clásicamente lo parece pero cuánticamente no lo es).

En general, en teoría cuántica de campos, para evitar que una teoría efectiva sea no renormalizable, es necesario que sólo haya sumandos en la densidad lagrangiana de la teoría cuyos coeficientes tengan dimensiones que sean potencias no negativas de la masa/energía (en unidades en las que c=\hbar=1). En efecto, si alguno de estos coeficientes tuviera alguna potencia negativa, entonces al calcular un diagrama de Feynman con n bucles debidos a esa interacción el resultado sería proporcional a ese coeficiente elevado a n. Dado que las amplitudes de probabilidad en mecánica cuántica son adimensionales, eso significa que ese diagrama tiene que ser proporcional a la potencia n-ésima de la energía E_l de las partículas que corren por el bucle, lo que da lugar a una integrales divergente en el ultravioleta, para momento grandes. Se produciría, por tanto, un nuevo tipo de divergencia cada vez añadimos nuevos bucles de partículas para ir a un orden superior en teoría de perturbaciones, resultando en una teoría efectiva que necesita un número infinito de ajustes para hacer predicciones cada vez a más alta energía y, por tanto, sería una teoría no renormalizable. A los términos en la lagrangiana de una teoría cuyos coeficientes tiene dimensiones de potencias negativas de la energía se les denomina irrelevantes, ya que sus efectos sobre las amplitudes de probabilidad se van haciendo cada vez más pequeños a medida que vamos avanzando en el grupo de renormalización, es decir, a medida que nos vamos a energías cada vez más pequeñas (y su valor obtenido mediante el flujo del grupo de renormalización asintóticamente a bajas energías, inluso teniendo en cuenta los efectos cuánticos, está determinado sólo por los acoplos que no son irrelevantes). En cambio, a los que tienen potencias positivas de la energía se les denomina relevantes, y si no tienen dimensiones se les denomina marginales. El acoplo \tilde{g} de nuestro ejemplo de juguete parece clásicamente que que es marginal al hacer el análisis dimensional, pero hemos visto que las correcciones cuánticas hacen que sea relevante (como le ocurre también al acoplo de la cromodinámica cuántica) porque su valor con respecto al del punto fijo se hace más y más grande a medida que disminuimos la energía. Se dice entonces que es marginalmente relevante. En cambio, el acoplo de la electrodinámica cuántica, que también parece marginal clásicamente, en realidad es marginalmente irrelevante, se hace cada vez más grande a medida que aumentamos la energía (exploramos distancias más pequeñas), produciéndose un polo de Landau. Hay que darse cuenta también que, dado que el hecho de que un acoplo sea relevante o no depende del análisis dinensional, esta condición depende de la dimensión del espaciotiempo en el que está definida la teoría cuántica de campos. Por ejemplo, para un campo escalar en (5+1) dimensiones el único término relevante es el que da masa al campo, mientras que en (1+1) dinensiones, el tener ser el campo escalar adimensional, hay infinitos términos marginales diferentes. También es necesario notar que esta relación entre las dimensiones de un acoplo y si son relevantes o no se tiene que hacer poniendo los campos en unas unidades en las que el coeficiente del término cinético sea adinensional.

Repetimos el resultado más importante del párrafo anterior. Si queremos tener una teoría efectiva predictiva, es decir, que las infinitas predicciones de la teoría sean completamente universales y estén bien definidas una vez hemos fijado el valor de un número finito de parámetros relacionados con los órdenes más bajos en teoría de perturbaciones (nivel árbol y unos pocos bucles), una teoría en la que los diagramas con muchos bucles sólo afectan a los resultados (las amplitudes de probabilidad) cambiando su valor pero sin necesitar que redefinamos la teoría desde cero cada vez que aumentamos la precisión con otro bucle, entonces esta teoría tiene que ser renormalizable, la densidad lagrangiana sólo puede tener sumandos cuyos coeficientes tengan dimensiones que sean potencias no negativas en la masa/energía, de tal forma que sean relevantes o marginalmente relevantes. Es importante señalar que, como estos acoplos relevantes tienden a un punto fijo del grupo de renormalización asintóticamente en el UV, toda teoría cuántica de campos renormalizable se puede entender a altas energías como una teoría de campos conforme (CFT) perturbada con términos relevantes (cuyo efecto se va notando más y más a medida que disminuimos la energía y nos vamos a lo que llamamos el infrarrojo). Afortunadamente, en la mayoría de teorías efectivas de interés toda la física a escalas muy por debajo del UV, incluyendo el valor de los acoplos irrelevantes, está codificada por un número finito y pequeño de parámetros relevantes, con lo que asignando a estos el valor que se obtenga en los experimentos de baja energía ya tenemos una teoría que predice todo lo demás que ocurre a esas bajas energías y podemos ignorar los, posiblemente infinitos, acoplos irrelevantes que dependen de la física desconocida que ocurre en el UV.

Por tanto, si la teoría es renormalizable, podemos encontrar también la teoría efectiva a otras escalas de distancia y energía más allá (por encima) del cut-off haciendo correr los acoplos en sentido inverso al del grupo de renormalización, pero siempre sobre la premisa de que la física en lo que llamamos el infrarrojo (IR), por debajo del cut-off, no dependa fuertemente de la física que ocurre muy por encima del cut-off, en lo que llamamos el ultravioleta (UV). A este principio, que se cumple en la mayoría de casos de interés y en el que se basa toda la filosofía de las teorías efectivas, se le llama desacoplo UV/IR. Gracias a él podemos describir la física a grandes distancias (en el IR) sin conocer los detalles de lo que ocurre microscopicamente (en el UV). Es decir, la física a escalas grandes de distancias que te da la teoría efectiva sólo depende de unos pocos parámetros y no de todos los detalles que ocurren en al física microscópica.

De hecho, las teorías cuánticas de campos que nos sirven para describir el mundo de la física de partículas no sólo son perturbaciones de teorías conformes sino que, además, pueden ser descritas mediante el formalismo de la integral de camino de Feynman. Esto implica que el punto fijo del que son perturbaciones es gaussiano. Por ejemplo, en mecánica cuántica de una partícula, que es una teoría de campos en (0+1 dimensiones), en el formalismo de la integral de camino, \hspace{-1cm} U(x_b, t_b; x_a, t_a) = \lim_{N \to \infty} \> \left (\frac{m}{2 \pi i \epsilon \hbar} \right )^{N/2} \int_{-\infty}^{+\infty} dx_1 \> dx_2 \> \ldots \> dx_{N-1} \cdot \cdot \exp \left \{ \frac{i \epsilon}{\hbar} \sum_{j=0}^{N-1} \left [ \frac{m}{2} \left ( \frac{x_{j+1} - x_j}{\epsilon} \right )^2 - V(x_j) \right ] \> \right \} = = \int_{x(t_a)=x_a}^{x(t_b)=x_b} {\cal D}x(t) \> e^{i S[x(t)]/\hbar} \> \> . en la amplitud de transición entre puntos espaciotemporales cercanos domina el término cinético frente al de la energía potencial en el límite en el que hacemos tender el intervalo de tiempo \epsilon a cero, es decir, en el UV (de hecho, el análisis dimensional nos dice en este caso que, da igual qué función se tome para el potencial, este término siempre será relevante y este es el motivo por el que en mecánica cuántuca de una partícula normalmente no aparece divergencias y no es necesario saber nada de renormalización). El caso del ejemplo de juguete de este post es especial porque el potencial no es una función, sino una distribución de tipo delta de Dirac.

Pero es necesario señalar que, incluso aunque la teoría efectiva sea renormalizable y haga predicciones matemáticamente consistentes incluso de qué pasa a medida que vamos aumentando la escala de energía, puede llegar un momento en que, al ir hacia el UV, llegamos a la escala característica en la que se empieza a notar experimentalmente que esa teoría era sólo una aproximación a la realidad y hay que sustituirla por una nueva teoría física, ya que la teoría efectiva no da cuenta de las nuevas partículas y fenómenos que van apareciendo al aumentar la energía. Eso la teoría efectiva no lo ve y la puedes extrapolar ingenuamente si quieres hasta energías tan altas como quieras. Para cualquier cut-off E_m, donde debemos suponer que entrará seguramente en juego nueva física desconocida, la teoría renormalizable produce correcciones a los procesos de baja energía que van como E_m^{-n}, con n>0, de manera que estas correcciones pueden volverse arbitrariamente pequeñas al aumentar E_m tanto como queramos. Si nos olvidamos de la gravedad y de que las teorías cuánticas de campos se rompen como muy tarde a la escala de Planck, la única indicación que tenemos de que esa teoría es efectiva es el flujo del grupo de renormalización: el valor numérico de los parámetros de la teoría cambia al ir cambiando la energía del cut-off. Las teorías con libertad asintótica y las invariantes de escala son ejemplos de este caso. Las teorías con un polo de Landau, como la electrodinámica cuántica, nos indican que hay nueva física sólo a energías exponencialmente altas, con lo que permiten que el cut-off sea exponencialmente alto, mucho más alto que las energía en las que esa teoría ya deja de ser válida (mucho más alto que la escala de unificación electrodébil). La serie perturbativa en electrodinámica cuántica se comporte bien a todos los órdenes en teoría de perturbaciones.

El que las teorías renormalizables sean predictivas viene de haber podido separar la escala de energía en la que estamos interesados (las energías bajas a las que pueden acceder nuestros aceleradores de partículas) de las escalas de alta energía donde casi con certeza entran en juego nuevas partículas y fenómenos físicos desconocidos. El desacoplo IR/UV y la renormalización nos permiten ignorar estas partículas y fenómenos físicos desconocidos que, se espera, haya en las escalas de energía altas a las que no podemos acceder. Pero que podamos ignorarlos no significa que no existan. Eso lo descubriremos cuando podamos acceder experimentalmente a energías más altas. Es decir, este desacoplamiento de las escalas UV/IR nos permite hacer física de partículas con predicciones de gran precisión aunque ignoremos lo que ocurre a alta energía, pero tiene la contra de que, al no afectarnos lo que ocurre al alta energía, entonces no podemos aprender nada sobre ls física en la escala UV inexplorada y desconocida.

Si, por el contrario, la teoría no es renormalizable, entonces, en cuanto intentamos encontrar la teoría efectiva a medida que aumentamos la energía, las correcciones que vienen de la física UV desconocida se hacen grandes y la teoría ya no es predictiva al necesitar infinitos parámetros que ajustar. Esto es así porque, si en una teoría que era renormalizable intentamos añadirle un acoplo irrelevante de valor finito a baja energía, entonces al ir hacia atrás en el flujo del grupo de renormalización (aumentar la energía) nos iremos cada vez más lejos del punto fijo del UV que tenía la teoría renormalizable porque los acoplos irrelevantes se alejarán cada vez más de éste. El resultado de nuestros cálculos dejará de tener sentido físico de la misma manera que, después de multiplicar un número por cero, intentamos volver a tener el número que teníamos inicialmente. El flujo del grupo de renormalización es irreversible. No se puede recuperar la información perdida volviendo al UV. 

Los acoplos irrelevantes de tamaño finito a bajas energías son incosistentes si lo que queremos es una teoría que se pueda extrapolar hasta el UV mandando el cut-off tan arriba como queramos. Sin embargo, en la práctica, los operadores irrelevantes son muy útiles como herramienta en una teoría efectiva de campos de baja energía, siempre y cuando uno no pretenda que sean válidos hasta energías infinitas. Es decir, a energías pequeñas sí podemos seguir usando la teoría no renormalizable como teoría efectiva a grandes distancias (energías pequeñas). Cuando buscamos teorías efectivas que describan la naturaleza a baja energía, e insistimos en quedarnos ahí, en buena aproximación también podemos trabajar con lagrangianos no renormalizables. Sin embargo, al estudiar si algunos procesos son calculables en esta teoría, descubriremos que sólo los procesos en los que las energías de partículas externas sean menores que un cut-off tienen asociadas amplitudes que se comportan bien según la teoría. De hecho, los acoplos dimensionales que suprimen los operadores irrelevantes son una indicación de la escala donde la descripción efectiva de baja energía deja de funcionar. La misma teoría nos está pidiendo especificar alguna nueva física cerca o por encima del cut-off, porque no te deja poner el cut-off tan alto como quieras. En cambio, las teorías con interacciones renormalizables permiten que el cut-off sea arbitrariamente alto.

Es importante remarcar que sólo podemos exigir a las teorías de física de partículas que sean renormalizables si tenemos la creencia irracional de que el universo debe estar descrito por teorías que puedan ser extrapoladas de manera única a energías mucho más altas que aquellas a las que podemos acceder experimentalmente. Pero la naturaleza no tiene que ser como a nosotros nos gustaría que fuera, con lo que también debemos admitir que nuestras teorías efectivas no sea renormalizables y, por tanto, necesiten ser reformuladas y completadas con más ingredientes continuamente al ir cada vez a energías un poco más altas. De hecho, la interacción gravitatoria nos obliga a ello. En el caso de la gravedad cuántica, la cuantización ingenua de la relatividad general da una teoría cuántica de campos efectiva que no es renormalizable y en cuyas predicciones sólo podemos confiar si estamos muy por debajo de la escala de Planck. Esta escala corresponde a unas distancias de unos 10^{-35} m y unas energías de unos 10^{19} GeV por partícula, energías que están 15 órdenes de magnitud por encima de lo máximo que podemos hacer hoy en día en los aceleradores de partículas y unos 8 órdenes de magnitud por encima de la de los rayos cósmicos más energéticos, algo completamente inaccesible a los experimentos que somos capaces de hacer ahora y, posiblemente, en los de los próximos siglos. Entonces, ¿cómo podemos explorar los efectos cuánticos de la gravedad? No lo sabemos todavía bien, pero tenemos un excelente laboratorio teórico para hacerlo: los agujeros negros, que violan el desacoplo IR/UV, asunto que dejamos para otro post. Aquí simplemente nos quedamos en que es inútil e innecesario forzar a que nuestras teorías cuánticas de campos efectivas sean válidas en todas las escalas de energía, aunque es cierto que las teorías efectivas renormalizables tienen la ventaja de ser más sencillas cuando sea razonable aplicar la navaja de Occam. Sería raro que aparezca nueva física cada vez que aumentemos un poco la energía. Las teorías renormalizables, como el Moledo Estándar de la física de partículas, pueden ser extrapoladas a escalas de energía arbitrariamente altas mientras no aparezca nueva física, pero no pueden incluir gravedad, que inevitablemente parece no renormalizable a bajas energías. Hasta ahora la única teoría cuántica que tenemos, aunque no la conozcamos al completo, que es capaz de describir todos los tipos de partículas y sus interacciones incluyendo la gravedad de forma matemáticamente consistente para cualquier valor de energía es la teoría de cuerdas.

Por último, aclaro que en este post he hablado sólo de las divergencias ultravioletas, porque son precisamente éstas las que constituyen un problema, las que nos están diciendo que ese modelo no es la realidad y que, en el mejor de los casos, a lo máximo que aspira es a ser efectivo a baja energía, a ser un límite de una teoría más precisa. Pero, además de las ultravioletas, también ocurre típicamente en teoría cuántica de campos que aparecen otro tipo de divergencias cuando calculamos amplitudes de probabilidad. Se trata de las divergencias infrarrojas. Éstas surgen al integrar sobre longitudes de onda arbitrariamente largas, es decir, sobre momentos arbitrariamente pequeños. Pero estas divergencias no nos indican que la teoría sea incompleta. La presencia de diagramas de Feynman divergentes de tipo infrarrojo en una teoría cuántica de campos no nos dice que ésta tenga nada incorrecto. Por ejemplo, en electrodinámica cuántica las hay porque es imposible detectar fotones de longitud de onda arbitrariamente larga. Así que las amplitudes de probabilidad que habría que calcular para un experimento real son amplitudes sobre procesos que incluyen un número arbitrario de fotones indetectables por los aparatos. Y en ese cálculo, que es el que tiene significado físico, las divergencias infrarrojas se cancelan. Las divergencias infrarrojas sólo surgen cuando intentamos calcular algo que no tiene significado físico, aunque desde el punto de vista de la teoría, desconectada del experimento, nos parezca muy natural. Al igual que las ultravioletas, surgen de creernos que lo que tenemos en nuestro papel es la realidad, pero en el caso de las infrarrojas ese error es sólo nuestro (le estamos haciendo a la teoría la pregunta equivocada), no lo es también de la teoría, como ocurre en las ultravioleta.

En teoría cuántica de campos, por tanto, las divergencias infrarrojas y las ultravioletas tienen significados muy distintos, y esto es así porque en este marco en el que trabajan los físicos de partículas hay un desacoplo IR/UV, es decir, la física a largas distancias se deriva de la física a cortas distancias, pero no al revés. Sin embargo, hay unos objetos físicos, los agujeros negros, para los cuales hemos descubierto que este desacoplo no se cumple, pero eso da para otro post. 
 
En conclusión, los físicos y las físicas de partículas no restan infinito a infinito para que les salga un resultado finito. Lo que hacen es darse cuenta de que, al igual que la función de onda no es un ente físico, sino que es un objeto matemático que sólo existe en nuestra cabeza y, por eso, puede hacer cosas raras como colapsar más rápido que la luz, lo que teníamos en la cabeza no es la realidad. Si las divergencias que aparecen son infrarrojas, eso lo que nos está diciendo es que no le estamos haciendo a la teoría la pregunta correcta, no estamos calculando algo con significado físico y que se pueda medir. Y si las divergencias son ultravioletas, eso lo que nos está diciendo es que el modelo efectivo que tenemos los científicos en la cabeza no es la realidad. Lo máximo que podemos hacer es ajustarlo para que se parezca lo máximo posible a la realidad. Si hay suerte y la teoría es renormalizable, entonces con un número finito de ajustes es suficiente para producir una teoría sin divergencias y que da predicciones con significado físico para cualquier fenómeno. Es decir, lo más importante aquí es que este ajuste muchas veces se puede hacer de manera que la teoría sea predictiva incluso a energías mucho más altas de las que hemos explorado, y es precisamente el Modelo Estándar de la física de partículas la teoría que ha dado predicciones más precisas y que han concordado con los experimentos realizados a posteriori con un mayor número de cifras significativas de toda la historia de la humanidad.


Sobre el autor: Sergio Montañez Naz es doctor en física teórica y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

Bibliografía

  • Huang (1992), Quarks, Leptons And Gauge Fields, World Scientific, 2nd edition (1992)
  • Landau, L. D. and Lifshitz, E. M. (1992). Mecánica cuántica. Volumen 3 del Curso de Física Teórica. Reverté. Primera edición. Barcelona.
  • de Llano, M., A. Salazar, and M. A. Solís. (2005) "Two-dimensional delta potential wells and condensed-matter physics." Revista mexicana de física 51.6 (2005): 626-632.
  • Motl, L. Diversos posts en el difunto blog The Reference Frame.
  • Nyeo, Su-Long (2000): Regularization methods for delta-function potential in two-dimensional quantum mechanics. American Journal of Physics 68, 571 (2000); doi: 10.1119/1.19485
  • Shomer, Assaf (2007), A Pedagogical explanation for the non-renormalizability of gravity, arXiv:0709.3555 (hep-th).
  • Tong, David: Lectures on Quantum Mechanics