8 dic 2024

Lo que los agujeros negros nos están enseñando acerca de las leyes de la física: el acoplo IR/UV

Galileo Galilei osserva la lampada nel Duomo di Pisa, affresco di Luigi Sabatelli, Tribuna di Galileo, Firenze.Fechahacia 1841Fuente: http://brunelleschi.imss.fi.it/itinerari/galleria/TribunaGalileo_344.html


Un domingo de 1583 Galileo, cuando era un estudiante de apenas 18 años, no se podía concentrar en sus oraciones en la catedral de Pisa porque había algo curioso que le llamaba la atención y no podía parar de pensar en ello. Había una suave corriente de aire en el interior de la iglesia y una gran lámpara suspendida del techo se movía en forma de vaivén. Según la física de Aristóteles, dominante hasta la época, la lámpara lo que estaba haciendo era un movimiento forzado intentando alcanzar su posición natural, que es estar lo más baja posible. Por mucho que un aristotélico quisiera hacer experimentos de precisión con un péndulo, u objeto similar a esa lámpara, nunca habría llegado a ninguna conclusión interesante porque habría intentado medir la magnitud relevante en ese paradigma: el tiempo que el péndulo tarda en llegar a pararse, en llegar a su posición natural, magnitud que depende de si hay más rozamiento o menos y que poco tiene que decirnos acerca de las leyes de la física.

Sin embargo, Galileo, observando el mismo objeto, supo ver otra cosa: un movimiento periódico, que se repite una y otra vez. Y al hacer esto Galileo apreció algo sumamente sorprendente: el periodo de ese péndulo era independiente de la amplitud si ésta no era demasiado grande. ¡Cualquiera diría que para recorrer un arco más grande tendría que tardar más! Pero no. Este tiempo depende sólo de la longitud del péndulo y de la intensidad del campo gravitatorio, pero no de la amplitud, descubrimiento que nos abrió las puertas a conocer los principios más profundos que gobiernan el funcionamiento del universo.



En esta vida es importante incorporar continuamente las enseñanzas de los 3 grandes maestros que tenemos: el señor libro, el señor calle y el señor viaje, pero, sobre todo, hay que saber hacer lo que hizo Galileo: aprender a mirar lo que siempre hemos visto con ojos diferentes cada vez. A veces no hace falta buscar más mundos, sino aprender a mirar a éste con ojos nuevos.

En este post voy a tratar de explicar por qué los agujeros negros nos están haciendo mirar al universo con ojos completamente diferentes. Se trata de un post que, aunque de introducción al tema, es técnico y está escrito sólo para físicos o estudiantes de física. Si, por el contrario, lo que buscas es una introducción divulgativa a los agujeros negros, te va a interesar más este otro texto. A nivel más técnico en este blog hay ya dos articulos sobre los agujeros negros:
Lo que vamos empezar a ver ahora en este post es qué consecuencias tiene todo lo que hemos aprendido sobre los agujeros negros acerca de las leyes de la física. Los agujeros negros nos están diciendo sobre el universo muchísimas más cosas de las que parece a simple vista, así que, entre este post y su continuación, me dispongo a dar una lista no completa de las grandes lecciones que los agujeros negros nos están haciendo aprender.
 
También tengo que advertir al lector de que, no sólo ocurre que yo no soy experto en este tema, sino, además, que casi todos los que se hacen llamar "expertos en agujeros negros", tampoco lo son. Hay muchas cuestiones básicas sobre los agujeros negros que no tenemos claras, con lo que el contenido de este post va a tener que estar siempre sujeto a revisiones y correcciones. Podéis dejar vuestros comentarios y sugerencias de mejora en la caja que hay al final. Lo agradeceré.
 
 

Introducción: la filosofía de las teorías efectivas

 
Desde que los atomistas griegos elaboraron la idea de que la materia está hecha de átomos, entes tan pequeños que no podemos ver, en gran parte de la filosofía, y en toda la ciencia moderna que surgió a partir de ésta, siempre ha estado presente la cuestión de que el comportamiento que observamos de la naturaleza es una aproximación macroscópica de lo que está ocurriendo realmente a nivel microscópico. Así, por ejemplo, los fluidos ejercen presión sobre las paredes del recipiente que los contiene porque están hechos microscópicamente de átomos y/o moléculas que tienen velocidad y colisionan con esas paredes. En las reacciones químicas los atomos cambian de compañeros para formar nuevos compuestos. La enorme cantidad de fenómenos macroscópicos que podemos explicar y predecir con la hipótesis microscópica de los átomos es la razon por la que decia Feynman que esta hipótesis es la más importante en contenido científico de toda la historia de la humanidad.
 
Incluso la teoría más exitosa que tenemos actualmente y que describe con una precisión asombrosa el comportamiento en el mundo microscópico de las partículas elementales, el Modelo Estándar, que es una teoría cuántica de campos, ho sabemos que no es más que una descripción efectiva de lo que está ocurriendo a nivel más microscópico todavía (probablemente la fisica de cuerdas), física que ahora mismo es inaccesible experimentalmente, ya que necesitaríamos dar a las partículas en los aceleradores una energía a la que técnicamente no podemos llegar. 

Ya hemos visto en un artículo anterior en qué consiste la idea de una teoría efectiva. Lo intenté explicar con un ejemplo simple de mecánica cuántica de una partícula sometida a un potencial circular de cierta anchura, tan pequeña que resulta inaccesible a los experimentos. En este ejemplo los físicos de ese universo construían una teoría en la que el potencial verdadero, desconocido, era aproximado por una delta de Dirac multiplicada por un acoplo $\tilde{g}$ y en donde, para evitar que la integral que permite calcular $1/\tilde{g}$ diverja, y para no utilizar la teoría más allá de su rango de validez, es decir, para no integrar en distancias demasiado pequeñas o momentos demasiado grandes, se utilizaba un cut-off en el momento $p_m$ de valor arbitrario dentro de cierto rango. Vimos que los físicos y las físicas, al renormalizar la teoría, lo que hacen es darse cuenta de que $p_m$ y $\tilde{g}$ no son cantidades que existen en la naturaleza. Son magnitudes inventadas para poder construir la teoría efectiva (ya que la forma concreta del potencial que hay en la naturaleza a nivel microscópico en ese universo era desconocida). $\tilde{g}$ nos da el acoplo de la partícula con una delta de Dirac que no existe, y $p_m$ el momento máximo que puedo considerar en esa teoría efectiva para asegurarme de que ésta sea una buena aproximación a la realidad. Como son magnitudes que no existen, les puedo dar el valor que quiera dentro de cierto rango, pero no de cualquier forma. Sus valores tienen que estar relacionados mediante cierta ecuación que nos dice cómo corre el acoplo $\tilde{g}$ a medida que vamos aumentando el cut-off $p_m$.
 
Lo que creíamos que son constantes de la naturaleza, en realidad dependen de la escala de distancias a las cuales se está explorando la naturaleza. A esta variación de los acoplos con la escala de distancia, es decir, momento (o energía), con la que estamos trabajando se denomina flujo del grupo de renormalización, y es una característica propia que tienen las teorías efectivas, desde el modelo de juguete del que acabamos de hablar hasta el mismo Modelo Estándar de la física de partículas, característica que entendemos perfectamente desde los trabajos de Kenneth Wilson y colaboradores en los años 70 del pasado siglo.

Vimos también que en el espacio de todos los posibles valores de los acoplos hay unos puntos especiales, denominados puntos fijos, que son tales que, si los acoplos toman esos valores, éstos no van a cambiar al cambiar el valor del cut-off. Las teorías que se encuentran en esta situación son invariantes de escala, típicamente teorías de campos conformes (CFTs). Las teorías cuánticas de campos efectivas de interés para la física de partículas son todas perturbaciones de teorías conformes, mediante términos en el lagrangiano que alejan a la teoría de la CFT al ir moviendo el cut-off.

Dependiendo de si la teoría efectiva, definida por debajo del cut-off, necesita un número finito de parámetros o infinito, se dice que esta teoría es renormalizable o no. Si es renormalizable, podemos encontrar también la teoría efectiva a otras escalas de distancia y energía más allá del cut-off haciendo correr los acoplos en sentido inverso al grupo de renormalización sin encontrar ningún problema, ya que en las teorías renormalizables los términos irrelevantes en el lagrangiano de la teoría (que son los que se alejarían sin límite del punto fijo al ir aumentando el valor del cut-off) están ausentes. La ausencia de estos términos nos dice que la física en lo que llamamos el infrarrojo (IR), por debajo del cut-off, no depende fuertemente de la física que ocurre muy por encima del cut-off, en lo que llamamos el ultravioleta (UV). A este principio en el que se basa toda la filosofía de las teorías efectivas que se usan en física de partículas se le llama desacoplo UV/IR. Gracias a él podemos describir la física de partículas a grandes distancias (en el IR) sin conocer los detalles de lo que ocurre microscópicamente (en el UV). Es decir, la física a escalas grandes de distancias que te da la teoría efectiva sólo depende de unos pocos parámetros (con los que podemos fijar el valor de los finitos y poco numerosos acoplos relevantes que tenemos) y no de todos los detalles que ocurren en al física microscópica. Ejemplos de teorías renormalizables son las teorías con libertad asintótica (como, por ejemplo, la cromodinámica cuántica y también el modelo de juguete del artículo anterior), en las que el acoplo se va a cero al hacer crecer el cut-off, y también trivialmente las teorías que son invariantes de escala.
 
Pero es necesario señalar que, incluso aunque la teoría efectiva sea renormalizable y haga predicciones matemáticamente consistentes de qué pasa a medida que vamos aumentando la escala de energía, puede llegar un momento en que, al ir hacia el UV, llegamos a la escala característica en la que se empieza a notar experimentalmente que esa teoría era sólo una aproximación a la realidad y hay que sustituirla por una nueva teoría física, ya que la teoría efectiva no da cuenta de las nuevas partículas y fenómenos que van apareciendo al aumentar la energía. Eso la teoría efectiva no lo ve, aunque la podamos extrapolar ingenuamente de manera consistente hasta energías tan altas como queramos. El que las teorías renormalizables sean predictivas viene de haber podido separar la escala de energía en la que estamos interesados (las energías bajas a las que pueden acceder nuestros aceleradores de partículas) de las escalas de alta energía donde casi con certeza entran en juego nuevas partículas y fenómenos físicos desconocidos. El desacoplo IR/UV y la renormalización nos permiten ignorar estas partículas y fenómenos físicos desconocidos que, se espera, haya en las escalas de energía altas a las que no podemos acceder. Pero que podamos ignorarlos no significa que no existan. Eso lo descubriremos cuando podamos acceder experimentalmente a energías más altas. Es decir, este desacoplamiento de las escalas UV/IR nos permite hacer física de partículas con predicciones de gran precisión aunque ignoremos lo que ocurre a alta energía, pero tiene la contra de que, al no afectarnos lo que ocurre a alta energía, entonces no podemos aprender nada sobre la física en la escala UV inexplorada y desconocida.

Si, por el contrario, la teoría no es renormalizable, entonces, en cuanto intentamos encontrar la teoría efectiva a medida que aumentamos la energía, las correcciones que vienen de la física UV desconocida se hacen grandes y la teoría ya no es predictiva al necesitar infinitos parámetros que ajustar. Esto es así porque, si en una teoría que era renormalizable intentamos añadirle un acoplo irrelevante de valor finito a baja energía, entonces al ir hacia atrás en el flujo del grupo de renormalización (aumentar la energía) nos iremos cada vez más lejos del punto fijo del UV que tenía la teoría renormalizable porque los acoplos irrelevantes se alejarán cada vez más de éste. El resultado de nuestros cálculos dejará de tener sentido físico de la misma manera que, después de multiplicar un número por cero, intentamos volver a tener el número que teníamos inicialmente. El flujo del grupo de renormalización es irreversible. No se puede recuperar la información perdida cuando nos fuimos al IR volviendo al UV. 

Los acoplos irrelevantes de tamaño finito a bajas energías son inconsistentes si lo que queremos es una teoría que se pueda extrapolar hasta el UV mandando el cut-off tan arriba como queramos. Sin embargo, en la práctica, los operadores irrelevantes son muy útiles como herramienta en una teoría efectiva de campos de baja energía, siempre y cuando uno no pretenda que sean válidos hasta energías infinitas. Es decir, a energías pequeñas, por debajo de un cut-off, sí podemos seguir usando una teoría no renormalizable como teoría efectiva a grandes distancias. En estas teorías efectivas la presencia de términos irrelevantes en la lagrangiana es una indicación de la escala donde la descripción efectiva de baja energía deja de funcionar. La misma teoría nos está pidiendo especificar alguna nueva física cerca o por encima del cut-off, porque no te deja poner el cut-off tan alto como quieras, más allá de esa escala. En cambio, las teorías con interacciones renormalizables permiten que el cut-off sea arbitrariamente alto.

La naturaleza no tiene que ser como a nosotros nos gustaría que fuera, con lo que también debemos admitir que nuestras teorías efectivas no sean renormalizables y, por tanto, necesiten ser reformuladas y completadas con más ingredientes al ir cada vez a energías un poco más altas. Y aquí está el punto a donde quería llegar: la interacción gravitatoria nos obliga a ello. En el caso de la gravedad cuántica, la cuantización ingenua de la relatividad general da una teoría cuántica de campos efectiva que no es renormalizable y en cuyas predicciones sólo podemos confiar si estamos muy por debajo de la escala de Planck. Esta escala corresponde a unas distancias de unos $10^{-35} m$ y unas energías de unos $10^{19} GeV$ por partícula, energías que están 15 órdenes de magnitud por encima de lo máximo que podemos hacer hoy en día en los aceleradores de partículas y unos 8 órdenes de magnitud por encima de la de los rayos cósmicos más energéticos, algo completamente inaccesible a los experimentos que somos capaces de hacer ahora y, posiblemente, en los de los próximos siglos. Así que todo lo que tenemos es una teoría efectiva para la gravedad que sólo describe el universo a escalas de energía muy por debajo de la de Planck y que, al no ser renormalizable, ni siquiera es predictiva, al necesitar ajustar infinitos parámetros cada vez que nos vamos a una energía un poco más alta.

Si las ideas de Wilson son exactamente correctas, mientras no seamos capaces de acelerar partículas a energías comparables a la de Planck (lo que llamamos el UV), para explorar el mundo microscópico a distancias comparables a la longitud de Planck, nunca podremos salir de la caverna y entender cómo funciona el mundo a nivel fundamental. Parecía, por tanto, que estábamos condenados a usar el desacoplo UV/IR y trabajar siempre con teorías efectivas y, aunque hayamos sido capaces de aplicar el programa de unificación completa de los principios de la física para encontrar una teoría, la teoría de cuerdas, que unifica la relatividad, la cuántica y la interacción gravitatoria de forma consistente, parecía que la gran cantidad de vacíos diferentes que presenta la teoría no nos decía mucho acerca de cómo tienen que ser las teorías efectivas que describen el universo a medida que vamos disminuyendo el cut-off.

Sin embargo, otro de los desarrollos más importantes en física teórica en los últimos 70 años ha sido el descubrimiento de la estrecha relación entre los agujeros negros y las leyes de la termodinámica. Los resultados obtenidos al estudiar los agujeros negros desde un punto de vista semiclásico han llevado a considerar que los agujeros negros físicamente son sistemas termodinámicos, aunque muy peculiares. La entropía que tienen los agujeros negros nos da información sobre los grados de libertad microscópicos que dan cuenta de ella, y esto lo hacen aunque la descripción que tengamos de ellos sea sólo efectiva (en el IR). Los agujeros negros, por tanto, nos dan un link entre la física IR efectiva de baja energía (a longitudes mucho mayores que la de Planck) y la física microscópica en la escala de la longitud de Planck (el UV), con lo que son sistemas físicos para los que se rompe el desacoplo IR-UV en el que está basada la filosofía de las teorías efectivas que acabamos de explicar. En palabras de Maldacena [maldaaug96], uno puede decir que son "el átomo de hidrógeno'' de la gravedad cuántica.

Por tanto, al contrario de lo que pensábamos hasta hace pocas décadas, las teorías de campos efectivas que describen cómo se comporta el mundo IR que observamos a bajas energías (las de nuestros aceleradores de partículas) no pueden ser cualquier teoría cuántica de campos consistente (libre de anomalías, etc), sino que, además, tienen que estar somettidas a fuertes restricciones que surgen de la condición de que en el UV (cerca de la escala de Planck) se tienen que poder acoplar de forma consistente a la gravedad cuántica. Gracias a la física de los agujeros negros, que rompe el desacoplo UV-IR, y al resto de efectos de gravedad cuántica (incluyendo las características comunes que tienen los distintos vacíos de la teoría de cuerdas), tenemos una ventana a estas restricciones. Éstas se denominan Criterios de la Ciénaga (Swampland), y son candidatas a ser los principios fundamentales que unifiquen toda la física de partículas con la gravedad cuántica. Por ello los agujeros negros se han convertido en un excelente laboratorio teórico para estudiar, no sólo la naturaleza cuántica de la gravedad, sino también cómo afecta la gravedad cuántica al comportamiento de las partículas que observamos a baja energía.

En este post y en su segunda parte, que está en construcción, vamos a hacer un resumen introductorio sobre lo que nos han enseñado hasta ahora los agujeros negros acerca de la naturaleza cuántica de la gravedad y acerca de las condiciones que tienen que cumplir las teorías de campos efectivas que describen el comportamiento de las partículas elementales a las energías a las que podemos estudiarlas. Es decir, vamos a ver cómo los agujeros negros nos llevan a sustituir la filosofía de las teorías efectivas por la filosofía Swampland, en la que la física de los agujeros negros y el único modelo consistente de gravedad cuántica que tenemos, la teoría de cuerdas, nos llevan a restringir fuertemente las teorías efectivas posibles con las que podemos trabajar mediante unos criterios denominados criterios de Swampland. Aunque estos criterios de Swampland surgen y tienen soporte tanto en la física de los agujeros negros como en la teoría de cuerdas, en este post sólo voy a hablar de agujeros negros y no voy a hablar de cuerdas. Eso lo dejo para otro post sobre agujeros negros y teoría de cuerdas. El lector interesado en estudiar qué nos ha enseñado la teoría de cuerdas sobre el problema de la entropía de los agujeros negros puede consultar los reviews [dasmay01], [horojul97], [maldaaug96], [mohauptapr00} y [LV2018]. Para un resumen del estado actual del programa Swampland que incluye, además de la física de los agujeros negros, la teoría de cuerdas, pueden consultarse los reviews [ABKV2022] y [BCV2017] y las referencias que contienen.


Los agujeros negros nos dan el tamaño más pequeño al que podemos comprimir un objeto


La existencia de agujeros negros nos garantiza que no podemos concentrar una masa dada en un volumen tan pequeño como queramos ya que, una vez nos acerquemos, disminuyendo el tamaño, a su radio de Schwarzschild $R_S=2G^N_4M$, ésta colapsará a un agujero negro de ese tamaño, y añadiendo más masa sólo conseguiremos que aumete el tamaño de ese agujero negro. Como hemos explicado en un post anterior, ese es el significado físico que tiene el tamaño gravitacional de un objeto. La existencia de agujeros negros en relatividad general nos dice que todos los objetos en esta teoría tienen asociado, además de su tamaño, un tamaño gravitacional $R_S=2G^N_4M$, de tal forma que si su tamaño fuera comprimido hasta ese tamaño gravitacional, el objeto colapsaría a un agujero negro, objeto que no podemos decir que tenga asociado un volumen, pero sí un área $A=4\pi R_S^2$ asociada a su horizonte de sucesos.


Hay una fuerza y una potencia máximas que se pueden ejercer dos cuerpos en la naturaleza.

El hecho de que los objetos en relatividad general tengan asociado un tamaño gravitacional tal que, si el objeto se pudiera comprimir hasta ese tamaño, colapsaría para formar un agujero negro, tiene también otra consecuenca sorprendente. Para verlo, consideremos dos objetos de masas \(M_1\) y \(M_2\) separados por una distancia \(D\). La fuerza gravitacional entre ellos es, aproximadamente,

$ F = \frac{G M_1 M_2}{D^2} = \left(\frac{GM_1}{c^2D}\right) \left(\frac{GM_2}{c^2D}\right) \frac{c^4}{G}. $

Sin embargo, \(M_1 M_2\) no puede exceder \(\frac{1}{4} (M_1 + M_2)^2\) y, por lo tanto,

$ F \leq \left(\frac{G(M_1 + M_2)}{c^2 D}\right)^2 \frac{c^4}{4G}. $

Para asegurarnos de que se trata de dos objetos separados, y no de un agujero negro, se tiene que cumplir que $G( M_1 + M_2) < c^2 D$. Por tanto, la tensión o fuerza entre dos cuerpos no puede exceder el valor

$F_g = \frac{c^4}{4G} \approx 3.25 \times 10^{43} $ Newtons.

Cada vez que intentamos superar este límite de fuerza, aparecen horizontes de sucesos que nos lo impiden.
 
Análogamente, hay una máxima potencia que se puede ejercer, de valor:

$P_g = \frac{c^5}{4G} \approx 9.1 \times 10^{51} $ W.

Y un valor máximo para la tasa de cambio de masa de un objeto:

$\frac{dM}{dt} = \frac{c^3}{4G} \approx 1.0009 \times 10^{35}  $ kg/s.

 

 

La geometría diferencial de la relatividad general no funciona a nivel microscópico, y dar más energía no siempre implica explorar la naturaleza a distancias y tiempos más pequeños


En un post anterior hemos explicado el significado físico de la longitud de Planck $l_p$, el tiempo de Planck $t_p$, la masa de Planck $m_p$ y la temperatura de Planck $T_p$:


En teoría cuántica de campos locales, por ejemplo, en el caso más simple, el campo de Klein Gordon, la amplitud de probabilidad de que una partícula de masa $m$ se propague, desde un suceso del espaciotiempo hasta otro desconectado causalmente del primero, decrece a grandes distancias como la exponencial decreciente
$ e^{-mcr/\hbar} $
donde $r$ es la distancia entre ambos sucesos en el sistema de referencia en el que ambos ocurren simultáneamente. Esta amplitud de propagación no es cero, pero esto no supone una violación del principio de velocidad máxima de propagación de las interacciones, ya que se puede demostrar que una medición llevada a cabo en el primer suceso espaciotemporal no afecta a una segunda medición llevada a cabo en el segundo suceso. Lo que esta exponencial decreciente nos está diciendo es que existe una correlación entre esos dos puntos separados una distancia $r$, correlación que sólo se hace despreciable si esa distancia $r$ es muy superior a
$ \lambda = \frac{\hbar}{mc} $
Es decir, las partículas sólo se pueden considerar como entes localizados en un punto concreto del espacio si nuestros detectores no son capaces de detectar variaciones espaciales de tamaño del orden de magnitud de $\lambda$. Este es el motivo por el que a $\lambda$, a demás de longitud de onda de Compton, se la denomina el "tamaño cuántico de la partícula". Nótese que cuanto mayor sea la masa de una partícula, menor es su tamaño cuántico, lo que está en correspondencia con el hecho de que en teoría cuántica de campos al dar más energía exploramos distancias cada vez más pequeñas. También es importante señalar que lo que tenemos aquí es una exponencial decreciente, no una función que abruptamente pasa a valer cero a partir de un valor concreto $\lambda$.

Por otro lado, de la relatividad general sabemos que si conseguimos contraer, sin que cambie su masa, un objeto hasta un tamaño inferior al radio de Schwarzschild
$ R_S=\frac{2GM}{c^2} $
entonces ese objeto se convierte en un agujero negro. Por eso al radio de Schwarzschild se le llama también el "tamaño gravitacional del objeto". Este tamaño gravitacional es proporcional a la masa del objeto. Imaginemos ahora que queremos crear un agujero negro de tamaño $10^{-40}$ metros. Si hacemos la cuenta, necesitamos coger una masa de unos $10^{14}$ veces la masa del protón y comprimirla hasta los $10^{-40}$ metros de radio. Pero por culpa de los efectos cuánticos no podemos hacer esto. Llegaría un momento en el que el tamaño de esa masa se haría más pequeño que el tamaño cuántico $\lambda$ asociado a esa masa. Por debajo de ese tamaño las partículas no están localizadas. Eso significa que el agujero negro más pequeño que podemos tener es el que tiene una masa que hace igual en orden de magnitud a su tamaño gravitacional y a su tamaño cuántico. Si igualamos $R_S=\lambda$, se obtiene que esa masa es justamente la masa de Planck y su tamaño es justamente la longitud de Planck. Por debajo de la masa de Planck las correcciones cuánticas afectan a un tamaño superior al radio de Schwarzschild, de tal forma que ya no podemos asegurar que lo que tenemos es un agujero negro porque la relatividad general deja de ser válida a esas distancias. A su vez, si queremos explorar distancias cada vez más pequeñas, necesitaríamos utilizar partículas elementales cada vez más localizadas, es decir, partículas elementales con cada vez más masa. Pero al superar la masa de Planck, que nos daría un tamaño cuántico inferior a la longitud de Planck, la partícula se convertiría en un agujero negro, su radio de Schwarzschild empezaría a crecer y ya no nos sería posible explorar esas distancias tan pequeñas (es importante señalar que nos estamos refiriendo aquí a distancias propias, que son invariantes relativistas porque, aunque en el sistema de referencia en el que dos sucesos ocurren simultáneamente la distancia entre ellos sea de tamaño superior a la longitud de Planck, en otro sistema de referencia esa distancia será menor, y puede perfectamente ser inferior a la longitud de Planck). En conclusión, son los agujeros negros los que nos dicen cuál es el significado físico de la longitud de Planck. Además, éstos rompen con la propiedad que tienen las teorías cuánticas de campos relativistas de que dar mayor energía implica explorar distancias más pequeñas, y esta es la raíz de que rompan con el desacoplo UV/IR de las teorías de campos efectivas.

Una vez que tenemos claro qué es la longitud de Planck, podemos entender que el valor concreto de $1,6 \cdot 10^{-35}$ metros es tan importante como cualquiera de las demás distancias del mismo orden de magnitud. No hay ningún cambio abrupto en ese valor concreto. A distancias propias de ese orden de magnitud la geometría clásica que describe la relatividad general deja de funcionar, pero eso no significa que las distancias se vuelvan discretas. El operador posición no tiene por qué pasar a tener un espectro discreto. De hecho, en el único marco consistente que tenemos ahora mismo para describir la naturaleza a esas distancias, la teoría de cuerdas, el espaciotiempo no se hace discreto a la escala de Planck. Lo que ocurre es que no es posible explorar esas distancias tan pequeñas porque no hay ningún objeto en la teoría (por ejemplo, partículas puntuales) capaces de explorarlas. Esto hace que los intervalos, las superficies y los volúmenes no se puedan localizar a escala planckiana. Como en teoría de cuerdas el espaciotiempo no es discreto, ni siquiera a la escala de Planck, el espacio de Hilbert de todos los estados cuánticos del universo no sólo no puede tener dimensión finita, sino que tampoco esta dimensión puede ser infinita numerable. Esto implica que es imposible que toda la física que observamos sea fruto de una simulación informática, como explico en otro post.

Una de las predicciones de la teoría de cuerdas es que existen dimensiones extra. Si éstas son compactas, la cantidad de movimiento de las cuerdas en esas direcciones extra sólo puede tomar valores discretos y, si el volumen de estas dimensiones extra es suficientemente pequeño, entonces es posible que con las energías a las que podemos acceder experimentalmente sólo podemos llegar al nivel de cantidad de movimiento en esas direcciones más bajo, con lo que no seríamos capaces de detectar esas dimensiones extra. No seríamos capaces de detectar que los objetos se mueven en esas direcciones y no veríamos que los campos efectivos cambian al movernos en las direcciones extra. Y hay que señalar aquí que, en el caso de que existan esas dimensiones extra y de que éstas sean indetectables a baja energía, la escala de Planck es distinta para la teoría con dimensiones extra que para la teoría efectiva cuadridimensional que describe la física a la que podemos acceder a baja energía. En efecto, como a bajas energías en primera aproximación podemos suponer que los campos no dependen de las coordenadas que parametrizan las dimensiones extra, podemos hacer la intergral en el volumen $V_{d-3}$ de estas dimensiones extras, obteniéndose:
$ S_{EH} =\frac 1{16\pi G_{d+1}^N}\int dx^{d+1}\sqrt{G_{d+1}}R_{d+1} =\frac{V_{d-3}}{16\pi G_{d+1}^N}\int dx^{4}\sqrt{G_{4}}R_{4}$
de donde se obtiene que la constante de gravitación de Newton en 3+1 dimensiones sería distinta a la de la teoría con más dimensiones:
$G^N_{4}=G^N_{d+1}/V_{d-3}$
En $d+1$ dimensiones la constante de gravitación universal tiene unidades diferentes, con lo que la relación con la longitud de Planck es diferente:
$l_p^{(d+1)}=\left(\frac{\hbar G^N_{d+1}}{c^3}\right)^{1/(d-1)}$
lo que hace que la relación entre las constantes de Planck en $3+1$ dimensiones y en $d+1$ dimensiones sea:
$l_p^{(3+1)}=l_p^{(d+1)}\left(  \frac{l_p^{(d+1)}}{V_{d-3}^{1/(d-3)}}  \right)^{\frac{d-3}{2}}$
Por ejemplo, si hubiera 6 dimensiones extra con un volumen de $V_{d-3}\sim 10^{-15} m$, lo que implicaría que la ley de gravitación universal tendría un 8 en el exponente, pero sólo a distancias tan pequeñas que serían inaccesibles a los experimentos sobre gravitación que podemos hacer hoy en día, entonces, como $l_p^{(3+1)} \sim 10^{-35} m$, entonces se tendría que la longitud de Planck en la teoría (d+1)-dimensional, $l_p^{(d+1)}\sim 10^{-20} m$, no sería tan pequeña como la de la teoría efectiva cuadridimensional a la que podemos acceder nosotros. La presencia de estas dimensiones extra haría que la gravedad crezca más en intensidad a distancias pequeñas, con lo que la masa necesaria que tendría que tener una partícula para convertirse en un agujero negro no sería tan grande. La masas de Planck (d+1)-dimensional no es tan grande como la (3+1)-dimensional. Por supuesto, la teoría de cuerdas también permite que haya dimensiones extra de tamaños mucho mayores si suponemos que los campos del Modelo Estándar vienen de la física a baja energía en unas branas de (3+1) dimensiones y que las dimensiones extras están warpeadas.

Ya hemos dicho que, cuanto más pequeño sea el volumen de las dimensiones extra mayor es la cantidad de movimiento de las cuerdas que viajan en esa dirección y que no estén en el nivel de cantidad de movimiento más bajo. Por tanto, mayor es la energía de estas cuerdas. Pero entonces se hace menor la energía de las cuerdas enrolladas en esas dimensiones extra al estar menos "tensas", y se puede demostrar que esos modos de cuerdas enrolladas acaban jugando el mismo papel que jugaban las cuerdas que tenían cantidad de movimiento en esa dirección cuando la longitud de ésta era grande. Hay una dualidad entre ambas descripciones (denominada T-dualidad) que hace que los tamaños pequeños comparados con la longitud de Planck ni siquiera tengan significado físico, al ser duales con otros más grandes. Ambas situaciones describen la misma física. Y este es el motivo por el que, en teoría de cuerdas, longitudes más pequeñas que la de Planck no tienen significado físico y, a la vez, el espacio no está pixelado, sino que es continuo. 

En resumen, salvo que haya dimensiones extra muy grandes o warpeadas, la longitud de Planck es la mínima escala de longitud a la que podemos asignar un significado geométrico clásico y, aun así, tendríamos la longitud de Planck de la teoría $d+1$-dimensional jugando el mismo papel. Esta longitud de Planck la podemos entender como el radio del agujero negro más pequeño que todavía obedece más o menos a las leyes clásicas de la relatividad general. Objetos con menos masa (para que tengan un radio gravitacional más pequeño) ya no se comportarían como agujeros negros, sino más bien como partículas elementales con un tamaño cuántico más grande que la longitud de Planck. Esto hace que la longitud de Planck sea también la distancia más pequeña que podríamos explorar en principio con los aceleradores de partículas más potentes que podamos imaginar antes de que la incertidumbre cuántica de las partículas se haga del 100% por culpa de efectos gravitacionales (aparición de agujeros negros), lo que se manifiesta en fenómenos microscópicos no locales, fluctuaciones cuánticas de la métrica y correcciones con derivadas más altas a la acción de Einstein-Hilbert que hacen que ya no tenga sentido considerar distancias más pequeñas. Es, por tanto, la distancia a la que los axiomas de la geometría dejan de cumplirse.

Aumentar la energía de las partículas en los colisionadores más allá de la masa de Planck sólo serviría para que esos agujeros negros que se forman sean cada vez más grandes, lo que implicaría tener una peor resolución. Nótese que esto también significa que estamos obligados a tratar a todas las teorías cuánticas de campos de interés en física como teorías efectivas por debajo de algún cut-off inferior a la energía de Planck. En efecto, en todas ellas, incluso aunque se trate de campos libres (que no interaccionan con nada) hay un oscilador en cada punto del espacio-tiempo. La teoría cuántica de campos nos dice que podemos excitar este grado de libertad hasta energías arbitrariamente altas. Pero la gravedad es la única interacción a la que está obligatoriamente sometida toda la materia y energía. Una vez que acoplamos esos campos a la gravedad, ya no es cierto que se puedan excitar esos osciladores a energías tan altas como queramos, porque cuando se concentra suficiente densidad de energía en una pequeña región del espacio, ésta colapsará para formar un agujero negro.


La descripción de la interacción gravitatoria mediante una teoría cuántica de campos sólo es una descripción efectiva a bajas energías.


En general, en teoría cuántica de campos, para evitar que una teoría efectiva sea no renormalizable, es necesario que sólo haya sumandos en la densidad lagrangiana de la teoría cuyos coeficientes tengan dimensiones que sean potencias no negativas de la masa/energía (en unidades en las que $c=\hbar=1$). En efecto, si alguno de estos coeficientes tuviera alguna potencia negativa, entonces al calcular un diagrama de Feynman con $n$ bucles debidos a esa interacción el resultado sería proporcional a ese coeficiente elevado a $n$. Dado que las amplitudes de probabilidad en mecánica cuántica son adimensionales, eso significa que ese diagrama tiene que ser proporcional a la potencia n-ésima de la energía $E_l$ de las partículas que corren por el bucle, lo que da lugar a una integrales divergentes en el UV. Se produciría, por tanto, un nuevo tipo de divergencia cada vez que añadimos nuevos bucles de partículas para ir a un orden superior en teoría de perturbaciones, resultando en una teoría efectiva que necesita un número infinito de ajustes para hacer predicciones cada vez a más alta energía y, por tanto, sería una teoría no renormalizable.

Si queremos tener una teoría efectiva predictiva, es decir, que las infinitas predicciones de la teoría sean completamente universales y estén bien definidas una vez hemos fijado el valor de un número finito de parámetros relacionados con los órdenes más bajos en teoría de perturbaciones (nivel árbol y unos pocos bucles), una teoría en la que los diagramas con muchos bucles sólo afectan a los resultados (las amplitudes de probabilidad) cambiando su valor pero sin necesitar que redefinamos la teoría desde cero cada vez que aumentamos la precisión con otro bucle, entonces esta teoría tiene que ser renormalizable, la densidad lagrangiana sólo puede tener sumandos cuyos coeficientes tengan dimensiones que sean potencias no negativas en la masa/energía. 

Sin embargo, si analizamos la acción de Einstein-Hilbert e intentamos incorporarla a una teoría cuántica de campos que describa la gravedad cuántica, se ve claro que la interacción gravitatoria es irrelevante en $d+1>2$ dimensiones, ya que viene dada por un acoplo que es básicamente la energía de Planck elevada a $(1-d)/2$. En efecto, trabajando en unidades en las que $\hbar=c=1$, como la métrica no tiene dimensiones, el tensor de curvatura tiene como dimensión el cuadrado de la energía. Como la acción es adimensional, entonces la constante de gravitación $G^N_{d+1}$ tiene dimensiones de energía elevada a $1-d$. Si consideramos que la métrica es la variable dinámica de esta teoría de gravedad cuántica y analizamos sus perturbaciones con respecto a la de Minkowski,
$G_{\mu\nu}=\eta_{\mu\nu}+h_{\mu\nu}$
en el caso de que estas perturbaciones sean pequeñas el término más importante en la acción en la que aparecen es
$ S \left[ h\right] \sim\frac 1{16\pi G_{d+1}^N}\int dx^{d+1} \left[ (\partial h)^2 +(\partial h)^2 h + ... \right] $
Reescalando
$h_{\mu\nu}=\sqrt{8\pi G^N_{d+1}}\tilde{h}_{\mu\nu}$
para que el coeficiente del término cinético sea adimensional, se llega a
$ S \left[ \tilde{h}\right] \sim\frac 1{2}\int dx^{d+1} \left[ (\partial \tilde{h})^2 +\sqrt{8\pi G^N_{d+1}}(\partial \tilde{h})^2 \tilde{h} + ... \right] $
donde se observa que el acoplo $\sqrt{8\pi G^N_{d+1}} $ es irrelevante al tener dimensiones de energía elevada a $(1-d)/2$. Nótese que este análisis dimensional sigue siendo válido aunque expandamos las perturbaciones de la métrica en torno a un background que no sea Minkowski, ya que el espaciotiempo, al ser una variedad diferenciable, en el UV, a distancias cortas, se comporta como Minkowski.

Ya vimos en el artículo anterior que el hecho de que un parámetro irrelevante como éste tome un valor finito a las bajas energías a las que pueden acceder nuestros experimentos no tiene ningún sentido desde el punto de vista de la mecánica cuántica, a no ser que entendamos esta teoría como sólo una aproximación de baja energía de la teoría correcta. No podemos, por ejemplo, meter esta acción en la integral de camino de Feynman para intentar definir así una teoría cuántica de la gravedad, ya que las integrales de camino son, por definición, descripciones de teorías cuánticas de campos que sean perturbaciones, mediante sumandos relevantes, de puntos fijos gaussianos. Este problema se traduce, en el caso de que optemos por el formalismo hamiltoniano, en que las ligaduras hamiltonianas, necesarias para poder cuantizar una teoría como esta con invariancia gauge, no cierran de ninguna manera.  Todo lo que tenemos es una teoría efectiva para la gravedad que sólo describe el universo a escalas de energía muy por debajo de la de Planck y que, al no ser renormalizable, ni siquiera es predictiva, al necesitar ajustar infinitos parámetros cada vez que nos vamos a una energía un poco más alta.

Como la escala de Planck es completamente inaccesible a los experimentos que somos capaces de hacer ahora y, posiblemente, en los de los próximos siglos, parece que no hay nada que podamos hacer para explorar la física cuántica de la interacción gravitatoria. Sin embargo, la comunidad de físicos y físicas teóricos que trabaja en gravedad cuántica sí que hay cosas que sabe hoy en día acerca de la física a la escala de Planck, sobre todo algunos aspectos cualitativos sobre ésta, y esto es en su mayor parte gracias a los agujeros negros, como vamos a ver.


La radiación de Hawking y la termodinámica de los agujeros negros constituyen la primera ventana a los efectos cuánticos de la gravedad


Ante las dificultades mencionadas para encontrar una teoría cuántica de campos extrapolable hasta el UV que incluya la gravitación, los físicos a mediados del siglo pasado se pusieron a investigar en teoría cuántica de campos en espacios curvos (campos cuánticos, como $\tilde{h}_{\mu\nu}$ o como el campo electromágnético, o como el campo escalar $\phi$, propagándose por un campo gravitatorio clásico de fondo). Ya hemos dicho que esta teoría cuántica de campos efectiva es una buena aproximación a la realidad en aquellas condiciones en las que la naturaleza cuántica de la gravedad no juega un papel crucial, es decir, a energías muy por debajo de la escala de Planck. Aplicada a los agujeros negros, esta restricción se traduce en que los invariantes de curvatura en el horizonte no son mayores que la escala de Planck o, lo que es lo mismo, que la masa del agujero negro es mucho mayor que la masa de Planck. 

Los teoremas de ausencia de pelo descritos en un post anterior nos dicen que, en 3+1 dimensiones, los agujeros negros estacionarios quedan completamente determinados con sólo unos pocos parámetros: su masa, sus cargas eléctricas y magnéticas y su momento angular. Sin embargo, Bekenstein ya se dio cuenta de que deberían tener más grados de libertad, pues si al introducir un sistema térmico con entropía dentro de un agujero negro disminuyera la entropía del universo, se violaría la segunda ley de la termodinámica. Como en 1971 Hawking demostró que el área total de los horizontes de los agujeros negros siempre aumenta al unirse varios agujeros negros, Bekenstein propuso que los agujeros negros tienen una entropía proporcional al área de sus horizontes. Por tanto, también se les debería poder asociar una temperatura, resutado confirmado por un cálculo semiclásico de Hawking y diversos cálculos alternativos posteriores, en lo que hoy en día se considera el resultado más importante en teoría cuántica de campos en espacios curvos: un agujero negro estacionario radia térmicamente con una temperatura de cuerpo negro:

$T_H = \frac{\kappa}{2\pi}$

donde $\kappa$ es la gravedad del superficie del agujero negro. Para el agujero negro de Schwarzschild:

$T_H=\frac{1}{8\pi G_4^NM}$

A este proceso de radiación se le conoce como radiación de Hawking y, una forma de entenderlo, es verlo como una transición mecanocuántica en el que el agujero negro se parte en trozos, pero en el que, en vez de partirse en trozos iguales, lo que afectaría mucho al horizonte de sucesos, se parte en un trozo grande y una multitud de trozos pequeños, tan pequeños que, al ser más ligeros que la masa de Planck, quedan mejor descritos como partículas. Restituyendo la constante de Planck y la velocidad de la luz en la fórmula, por si no trabajamos en unidades naturales se tiene:

$T_H=\frac{\hbar c^3}{8\pi G_4^NM}$

Se trata, por tanto, de la primera fórmula detallada de gravedad cuántica que ha obtenido el ser humano, una fórmula que combina los efectos cuánticos, con los relativistas y con con los gravitatorios, la primera fórmula que nos dice algo sobre la desconocida transición entre la descripcion de agujero negro (válidad para masas muy superiores a la de Planck), y la descripción de partículas elementales (válidad para masas muy inferiores a la de Planck).

Hay que señalar sin embargo que esta emisión de partículas no se debe a que las partículas emitidas atraviesen el horizonte saliendo del agujero negro mediante efecto túnel, ya que esto es imposible. El conmutador de dos campos es cero si estos campos están evaluados en puntos del espacio-tiempo que no están conectados causalmente, lo que asegura que no pueda detectarse fuera del agujero negro una partícula que haya sido emitida desde dentro. El proceso físico que está detrás del fenómeno de la radiación de Hawking es el mecanismo de Schwinger de producción de pares de partículas en presencia de un campo de fondo intenso (en este caso gravitatorio). El par es producido cerca del horizonte de manera que una de las partículas cae dentro del agujero negro y la otra escapa. El efecto neto es una pérdida de masa por parte del agujero negro y la emisión de radiación de espectro térmico. Debido a que todo tipo de materia se acopla de la misma manera al campo gravitatorio, este espectro de radiación está compuesto de todo tipo de especies de partículas y antipartículas (todas las especies de la misma temperatura). Si el agujero negro está cargado, hay una situación favorable, la que las partículas con carga del mismo signo que el agujero negro sean emitidas con más frecuencia que sus antipartículas. El efecto neto es entonces una descarga del agujero negro.
 
El tamaño cuántico de estas partículas emitidas no puede ser, por un lado, mayor que el tamaño del horizonte, ya que se emiten desde las proximidades de éste. Pero, por la ausencia de pelo del agujero negro, tampoco puede ser este tamaño cuántico mucho más pequeño que el horizonte, con lo que debe ser de un orden de magnitud similar al tamaño del agujero negro, es decir, proporcional a la masa del agujero negro. Como la energía de esas partículas emitidas es inversamente porporcional a su tamaño cuántico, la energía típica de las partículas emitidas es inversamente porporcional a la masa del agujero negro. Es por tanto, una energía emitida muy pequeña en comparación con la masas del agujero negro en aquellos casos en los que el agujero negro tenga una masa muy superior a la de Planck, pero se empieza a acercar a ella a medida que el agujero negro vaya adelgazando como consecuencia de esta emisión.
 
Si tenemos en cuenta estos efectos cuánticos de radiación de Hawking, entonces sí que es posible que un agujero negro esté en equilibrio termoquímico con un sistema de radiación a temperatura $T_H=\frac{\kappa}{2\pi}$. Por ello, al contrario de lo que ocurre en el caso puramente clásico, podemos identificar las leyes clásicas de los agujeros negros con las leyes de la termodinámica de los agujeros negros. Además, conocemos ahora exactamente gracias al cálculo de Hawking las constantes de proporcionalidad de la correspondencia entre entropía y área del horizonte, y entre temperatura y gravedad de superficie, con lo que hacemos la identificación:
$ E=M$
$S=\frac{A}{4G_4^N}$
$T=\frac{\kappa}{2\pi}$
para todo agujero negro estacionario.

Esto da lugar a la segunda ley generalizada de la termodinámica [waldec], que no es más que la segunda ley de la termodinámica, pero teniendo en cuenta la entropía que tienen los agujeros negros. Si uno toma una caja con materia y la tira al agujero negro, uno puede dejar de tener en cuenta la contribución de la entropía de la materia del interior de esa caja a la entropía total del universo, con lo que podría darse una violación de la segunda ley de la termodinámica. Por otro lado, en el proceso de radiación de Hawking se viola la ley del área, ya que la disminución de masa del agujero negro lleva consigo una disminución del área del horizonte (nótese que el tensor energía-impulso de un campo cuántico puede no satisfacer la condición de energía dominante. Se pierde así una de las premisas del teorema del área), pero entonces la entropía de la materia exterior al agujero negro aumenta debido a la radiación de Hawking. La segunda ley generalizada afirma que, en todo este tipo de procesos la entropía total, definida como la del agujero negro más la de la materia exterior a éste, nunca decrece.
 
Los agujeros negros astrofísicos, al tener una masa muy grande, tienen una temperatura muy pequeña, inferior a los 2,7 K del fondo de radiacion de microondas que impregna todo el universo, Por eso, incluso aunque estén lejos de otra estrellas o gases interestelares, aun así, por estar sometidos a un baño de temperatura más caliente que ellos, seguirán engordando, ya que absorben más fondo de radiación de microondas que radiación de Hawking emiten. Pero en el caso de hipotéticos agujeros negros de Schwarzschild primordiales pequeños, la radiación de Hawking podría ser importante: al estar el agujero negro más caliente que su entorno, se iría evaporando, evaporación que le haría perder masa, con lo que su temperatura aumentaría todavía más (se dicen que tienen capacidad caloríafica negativa), lo que haría que se evapore todavía más. Eso sí, el ritmo de emisión entre partícula y partícula, por limitación relativista, no puede ser superior a lo que tardaría la luz en recorrer una distancia del tamaño del aguero negro. Esto hace que en un tiempo $t$ el agujero negro pierda una energía del orden de :
$T_H\frac{c}{R}t=\frac{\hbar c^2t}{16\pi (G_4^NM)^2}$
Con lo que, para que pueda emitir una energía igual a su masa en reposo y evaporarse por comppleto habría que esperar un tiempo del orden de:
$t=\frac{2(G_4^N)^2M^3}{\hbar c^4}$
Para agujeros negros estelares este tiempo sería del orden de $10^{66}$ años, 56 órdenes de magnitud mayor que la edad del universo, pero este tiempo se va haciendo 1000 veces menor cada vez que consideremos agujeros negros 10 veces más pequeños. Una vez se haya evaporado total o casi totalmente, el número total de partículas que habrá emitido es del orden de la entropía del agujero negro:
$\frac{M}{T_H}\sim S$
Esto nos lleva a un nuevo problema, el problema de la información en los agujeros negros, que dejamos para otro post. Si la radiación de Hawking que ha emitido un agujero negro que se ha evaporado completamente es sólo térmica y sólo depende de la masas, las cargas y el momento angular que tenía el agujero negro, toda esa informacion que ocultaba, cuantificada por al entropía $S$, parecería que se ha perdido. De hecho, si Alicia entra dentro de un agujero negro grande, como la curvatura en el horizonte es pequeña, no debería experimentar nada al atravesar el horizonte, sólo al acercarse a la singularidad y ser destruída allí. Sin embargo, para Bob, que se queda fuera, Alicia nunca llega a entrar en el agujero negro y toda la energía que tenía es radiada por el agujero negro hacia el exterior. Esta energía radiada, ¿contiene toda la información que llevaba Alicia?


La gravedad cuántica seguro que no está descrita mediante una teoría cuántica de campos.


Hemos visto que, por culpa de los efectos cuánticos, los agujeros negros son sistemas termodinámicos que satisfacen la ley cero, la primera y la segunda ley de la termodinámica. Pero, ¿qué pasa con la tercera ley de la termodinámica? Hay, básicamente, dos enunciados de esta ley: el de Planck, que establece que la entropía de todo sistema termodinámico tiende a cero cuando la temperatura tiende a cero; y el de Nerst, que afirma que el incremento de entropía de todo proceso a temperatura constante tiende a cero a medida que la temperatura a la que transcurre ese proceso tiende a cero. Ambos enunciados no son equivalentes porque, aunque Planck implica Nerst, Nerst no implica Planck. De hecho, es Nerst el que es equivalente al enunciado con directa aplicación experimental de que es imposible llegar al cero absoluto de temperatura mediante una sucesión finita de procesos. La mecánica estadística cuántica relaciona estos enunciados con el hecho de que los sistemas cuánticos tienen un nivel fundamental de baja energía. Así, en los sistemas termodinámicos usuales, a temperatura cero todos los estados de partícula simple están en el nivel más bajo posible (teniendo en cuenta el principio de exclusión de Pauli si son fermiones), que es precisamente la configuración con menor entropía. Pero si hay más grados internos de libertad que no intervienen en la energía, debido, por ejemplo, a simetrías no accidentales, entonces aumenta la degeneración del estado fundamental. Esto hace que el número de microestados compatibles en la situación de menor energía se multiplique, dando lugar a la adición a la entropía de una constante aditiva. La historia de la física está plagada de ejemplos en los que, objetos que se creían fundamentales, se vio luego que tenían grados de libertad internos. Por ello, cuando uno hace mecánica estadística de un sistema, uno espera que haya más grados internos de libertad que desconoce, definiendo la entropía salvo una constante aditiva y aplicando toda la filosofía de las teorías efectivas descrita en la introducción.


Que la entropía esté definida salvo constante aditiva es compatible con el enunciado de Nerst, pero no con el de Planck. Esto no crea ningún conflicto con los experimentos que se llevan a cabo con los sistemas termodinámicos habituales, ya que no pueden medirse valores absolutos de magnitudes como la entropía, sino incrementos. Pero, ¿qué pasa con los agujeros negros?


La asignación de una entropía a los agujeros negros lleva consigo un problema teórico. La descripción termodinámica de un sistema físico, que se lleva a cabo mediante el uso de un número muy reducido de parámetros, es considerada tradicionalmente una descripción "burda'', que no tiene en cuenta todos los grados de libertad del sistema, y que surge como consecuencia de que no se tiene acceso experimental a todos esos grados de libertad y de que el tratamiento riguroso, microscópico, es imposible de realizar si el número de grados de libertad del sistema es muy grande. La mecánica estadística cuántica realiza la conexión entre la descripción microscópica y la macroscópica mediante el uso de colectivos de Gibbs, que son conjuntos de estados microscópicos compatibles con una serie de condiciones macroscópicas externas impuestas al sistema, cada uno de ellos con una probabilidad de representar el estado del sistema. El concepto de entropía aparece entonces asociado a todo el colectivo, y no cada microestado concreto. Por ejemplo, el colectivo microcanónico, para sistemas aislados en equilibrio, está formado por los $\omega$ estados cuánticos independientes que tienen una energía dada y son compatibles con el resto de parámetros externos, todos ellos con la misma probabilidad de representar al sistema (postulado de igualdad de probabilidades a priori). La conexión con la física macroscópica se lleva a cabo mediante la asignación
$ S=log\omega $
Pero, entonces, en el caso de los agujeros negros, ¿cuáles son los microestados accesibles que dan lugar a la entropía $S=\frac{A}{4G_4^N}$? Esto es lo que se denomina el problema de la entropía de los agujeros negros. La fórmula de la entropía de los agujeros negros $S=\frac{A}{4G_4^N}$ es ahora mismo la principal fuente de información que tenemos acerca de cómo funciona el mundo al nivel microscópico en el que los efectos cuánticos de la gravedad se empiezan a notar.

Esta ecuación implica que, a pesar de la aparente simplicidad que describe para los agujeros negros estacionarios la relatividad general, éstos tienen que tener un enorme número de grados de libertad. En concreto, la entropía de los agujeros negros crece como el cuadrado de su tamaño, es decir, con el cuadrado de su energía $S\sim M^2$, con lo que este número de estados ligados de alta energía tiene que crecer como Como $\omega =\exp(S(E)) \sim \exp(cE^2)$, donde $c$ es una constante. El tratamiento estadístico de este tipo de sistemas parece bastante complicado debido a esta extraña dependencia, que hace que la función de partición del colectivo canónico
$ Z\left(T\right)\sim \int dE\omega e^{-\frac{E}{T}} $
diverja. Además, las propiedades termodinámicas de los agujeros negros son bastante intrigantes. En primer lugar, la entropía no es proporcional al volumen del agujero negro, como se espera de toda magnitud extensiva, sino que es proporcional al área del horizonte. En segundo lugar, algunos agujeros negros, como el de Schwarzschild, tienen capacidad calorífica negativa, con lo que son inestables, si absorben calor, disminuye su temperatura.
 
Además, el hecho de que objetos infrarrojos (IR) como los agujeros negros grandes contengan tanta información sobre estados ultravioleta (UV) de su descripción microscopica es sorprendente. Esto sugiere que la física de energías extremadamente bajas (es decir, grandes agujeros negros) y los estados de energía extremadamente alta están de algún modo conectados, lo cual contradice completamente la filosofía de las teorías cuánticas de campo efectivas que hemos descrito más arriba. Los agujeros negros violan el desacoplo UV-IR. La premisa de las teorías efectivas y la renormalización es ignorar la física ultravioleta ajustando los parámetros infrarrojos, pero un tratamiento cuántico de la gravedad, incluso a grandes distancias, requiere incorporar los grados de libertad de alta energía. Otra manifestación de este fenómeno es que la dispersión de gravitones a energías muy altas (UV) se realiza a través de grandes agujeros negros intermedios (IR).
 
Y esto es lo que nos lleva a entender por qué no hemos podido describir la interacción gravitatoria de manera consistente hasta el UV mediante una teoría cuántica de campos. Los agujeros negros, como ventanas de baja energía que son hacia la física gravitacional de alta energía, nos indican que la gravedad cuántica en $d+1$ dimensiones no puede estar descrita mediante una teoría cuántica de campos efectiva renormalizable $d+1$-dimensional. Esto es así porque toda teoría renormaizable tiende a una CFT en el límite UV, y en toda CFT en d+1 dimensiones la entropía escala con la temperatura de la forma
$S \propto V_d T^d$
En efecto, como $S$ es extensiva, debe ser proporcional al volumen $V_d$ de las $d$ dimensiones espaciales y, además, la temperatura, que por tratarse de una CFT, es este caso la única escala de energía que afecta al cálculo de la entropía, tiene que ir elevada a $d$ para que $S$ sea adimensional. En cambio, en la fórmula de la energía, la temperatura tiene que ir elevada a $d+1$.
$E \propto V_d T^{d+1}$
Esto hace que en toda teoría cuántics de campos renormalizable la entropía crezca con la energía asintóticamente en el ultravioleta de la forma
$S \propto E^{\frac{d}{d+1}}$
Sin embargo, en gravedad cuántica en d+1 dimensiones el espectro en el UV tiene que estar dominado por los estados microscópicos que forman los agujeros negros, con lo que la entropía debe ser proporcional al área en unidades de Planck
$S \propto A_{d-1} /G^N_{d+1}\propto (E l_p^{(d+1)})^{\frac{d-1}{d-2}} $
Con lo que el número de microestados a energías altas no coincide, ni siquiera aunque el universo tenga más de (3+1) dimensiones. La existencia de agujeros negros nos está diciendo que, si queremos una teoría cuántica de la gravedad que sea extrapolable hasta el UV (hasta escalas similares o superiores a la de Planck), ésta no puede ser una teoría cuántica de campos. Esta es la conclusión dramática a la que nos lleva el cálculo semiclásico de Hawking sobre los agujeros negros: las teorías cuánticas de campos son muy distintas a la gravedad cuántica.

De hecho, la solución al problema de la entropía de los agujeros negros parece que la da una teoría basada en estructuras más ricas que las partículas de la teoría cuántica de campos: la teoría de cuerdas. Esta teoría, en ciertos casos (en los que se pueden, para ciertos agujeros negros extremales, con temperatura cero pero entropía no nula, hacer cálculos a acoplo débil de magnitudes que están protegidas por supersimetría y, por tanto, los resultados valen también para acoplo fuerte), permite calcular la entropía y la temperatura de agujeros negros utilizando la mecánica estadística cuantica, al proporcionar para estos un modelo microscópico mecano-cuántico, pero eso lo dejamos para otro post. Sólo comentamos aquí que, en el caso de los agujeros negros extremales de la teoría de Einstein-Maxwell-Escalar descritos en un artíulo anterior, el mecanismo del atractor que experimentan asegura que la entropía del agujero negro viene dada en función de las cargas $(p^I,q_J)$ y no de parámetros continuos como los moduli en el infinito. Este hecho es un requerimiento necesario para que pueda haber acuerdo con la entropía microscópica del agujero negro: las entropías de los agujeros negros que se obtienen del contaje microscópico en teoría de cuerdas son de forma natural invariantes bajo pequeños cambios en los parámetros continuos $\phi_\infty$.


La cota de Bekenstein y el principio holográfico


Imaginemos una región del espacio cuya frontera tiene un área A0, que contiene una cierta cantidad de materia/energía, con una entropía S0. Supongamos que esta materia/energía está en las condiciones en las que puede evolucionar de forma aislada hasta formar un agujero negro. Tras el colapso, en el que disminuye el área de la frontera de esa materia que colapsa, tenemos un agujero negro cuyo horizonte de sucesos tiene área A1<A0, y que posee una entropía proporcional a esta área. Como el sistema está aislado, entonces la entropía no ha podido disminuir, de forma que S1 es mayor o igual que S0. De estas desigualdades tenemos que, para la situación inicial, la entropía S0 de ese conjunto de materia no puede ser mayor que $\frac{A_0}{4G_4^N}$. Es decir, no podemos empaquetar una información concreta en una región del espacio tan pequeña como queramos, incluso antes de llegar al volúmen de Planck.  A esta cota, que viene dada por el área de la región, se la llama cota de Bekenstein, y tiene dos consecuencias sorprendentes.


En primer lugar, la cota de Bekenstein, que hemos obtenido a partir de la física de los agujeros negros, nos dice que los grados de libertad microscópicos (que no sabemos cuáles son) de una teoría cuántica de la gravitación en un volumen dado están acotados, no por el volumen, sino por ¡el área de la frontera de esta región! Es como si todo lo que ocurre en el interior de cierta región estuviera codificado en su frontera. El intento de entender este comportamiento, que, sabemos, ha de tener el espacio-tiempo cuántico en el que vivimos, lleva a la formulación del denominado principio holográfico: toda la física en el interior de cierta región puede ser descrita en términos de una teoría que vive en la frontera de esta región. De la misma manera que toda la información de una imagen holográfica que vemos tridimensional esta codificada en una placa fotográfica que tiene sólo dos dimensiones, la física del mundo en el que vivimos parece entonces estar codificada, sorprendentemente, en un mundo que tiene ¡una dimensión menos! Esta descripción holográfica ha sido encontrada de forma precisa en teoría de cuerdas para espaciotiempos que son ansintóticamente Anti-de Sitter (Ads) y viene dada por una teoría de campos conforme (CFT) definida en la frontera del espaciotiempo en la que ¡no hay gravedad! ¿De dónde surgió esta correspondencia? Eso lo dejamos para otro post. Aquí sólo señalamos que, si repetimos la comparación que hicimos para el comportamiento de alta energía para la gravedad cuántica y una teoría cuántica de campos, pero en el caso de la gravedad cuántica en un espacio asintóticamentr anti de Sitter, entonces sí que no podemos descartar que ésta venga descrita en el UV por una CFT, pero, para que haya correspondencia en cómo depende S con E, esta CFT tiene que vivir en un espacio de una dimensión menos.


En segundo lugar, la cota de Bekenstein viene dada por el área de los horizontes de sucesos de los agujeros negros, que nos da valores absolutos de la entropía en los que no cabe decir "salvo constante aditiva". Incluso en el caso de los agujeros negros extremales, donde la entropía no se va a cero al irse la temperatura a cero, sino a un valor mínimo determinado por las cargas, no cumpliéndose así el enunciado clásico de Planck de la tercera ley de la termodinámica, esta entropía no tiene la libertad de añadir o quitar constantes aditivas. Esto apunta hacia el hecho de que los grados de libertad microscópicos que describen la entropía de los agujeros negros (como, por ejemplo, los de la teoría de cuerdas) son los grados de libertad fundamentales de la naturaleza, y que no hay otro nivel de estructura más profundo por descubrir. De hecho, en teoría de cuerdas, debido, por ejemplo, a la dualidad-T, los tamaños $L$ pequeños comparados con la longitud de Planck ni siquiera tienen significado físico, al ser duales con otros más grandes. 



Conclusión


La relación entre la entropía de los agujeros negros y su área la que nos está dando una conexión entre los grados de libertad microscópicos a la energía de la escala de Planck (UV) y a la baja energía de nuestros aceleradores de partículas (IR). En los agujeros negros grandes la curvatura en el horizonte es mucho más pequeña que la escala de Planck, con lo que la descripción efectiva de la métrica de Schwarzschild, Reissner-Nordstrom, etc, dada por la relatividad general, con perturbaciones cuánticas sobre ella es válida. Estos agujeros negros son, por tanto, objetos IR, pero ¡que contienen información sobre la física en el UV! Este link entre la física a tan bajas energías y la de altísimas energías (la escala de Planck) es completamente contrario a la filosofía de las teorías efectivas descrita al principio de este artículo. Cuando hablamos de agujeros negros la física IR y la UV no están desacopladas. Por eso no se puede cuantizar de forma directa el campo gravitatorio mediante una teoría cuántica de campos y hemos tenido que recurrir a otra estrategia con mayor garantía de éxito, la teoría de cuerdas, emulando lo que ya ocurrió a mediados del siglo pasado cuando, al no poderse cuantizar ingenuamente la partícula relativista, desarrollamos otro modelo cuántico alternativo y exitoso: la teoría cuántica de campos. 


Todavía de la teoría de cuerdas sólo conocemos algunas esquinas perturbativas y algunos fenómenos no perturbativos que podemos controlar bien sólo en situaciones supersimétricas. Estas esquinas perturbativas son las supercuerdas tipo I, tipo IIA, tipo IIB y heteróticas E8xE8 y SO(32), que viven en 10 dimensiones espaciotemporales. Se conjetura que hay otra descripción, la teoría M, que no es una teoría de cuerdas propiamente dicha y que es 11-dimensional. Todas éstas están relacionadas por una web de dualidades. Dado que todos los fenómenos que observamos en el universo ocurren en 4 dimensiones espacio-temporales, es de suponer que las dimensiones sobrantes son compactas y están plegadas en tamaños tan pequeños que sólo podríamos detectarlas a energías muy altas. La teoría efectiva 4-dimenional que surge a energías que son accesibles a nuestros experimentos depende fuertemente de la geometría y los flujos que haya en esas dimensiones extra. Un mito sobre la teoría de cuerdas bastante extendido es que cualquier teoría de campos en cuatro dimensiones efectiva a baja energía se puede obtener con la compactificación adecuada en teoría de cuerdas, pero esto no es así. Aunque el número de vacíos posibles de la teoría de cuerdas sea enorme, lo que se denomina el Landscape, es un conjunto numerables (lo cual ya suponen un avance infinito con respecto a la teoría cuántica de campos en la que muchos parámetros toman valores reales y se pueden tunear como te dé la gana) y, además, la mayoría de las teorías efectivas de campos posibles están descartadas. Sólo un conjunto muy restringido coincide con alguna aproximación a baja energía de la física que describe la teoría de cuerdas. Hacer compatibles los principios fundamentales de la física sólo es posible mediante restricciones muy fuertes. En este caso se trata de los principios de de la mecánica cuántica, la relatividad y la gravitación.


Por tanto, al contrario de lo que pensábamos hasta hace pocas décadas, las teorías de campos efectivas que describen cómo se comporta el mundo que observamos a bajas energías no pueden ser cualquier teoría cuántica de campos consistente (libre de anomalías, etc), sino que están sometidas a fuertes restricciones que surgen de la condición de que en el ultravioleta (cerca de la escala de Planck) se tienen que poder acoplar de forma consistente a la gravedad cuántica. Estos criterios se denominan Criterios de la Ciénaga (Swampland), y son candidatos a ser los principios fundamentales que unifiquen toda la física de partículas con la gravedad cuántica. Pero no es estrictamente necesario meterse en el complicado y avanzadísimo mundo de la teoría de cuerdas para entender algo sobre los criterios de Swampland. Ya sólo la física de los agujeros negros nos permite explicar la física que hay detrás de muchos de estos criterios, y eso es lo que vamos a hacer en lo que queda de artículo. Por supuesto, la investigación avanzada que se esta haciendo en este campo combina ambos caminos: la física de agujeros negros y las compactificaciones de teoría de cuerdas. Pero eso lo dejamos para el siguiente post:

  • Lo que los agujeros negros nos están enseñando acerca de las leyes de la física: los criterios de Swampland.

Aquí concluímos remarcando que el principio holográfico nos está llevando a entender el universo de una manera completamente nueva, una manera de hacer física sin utilizar el espacio-tiempo de la relatividad general como concepto fundamental, ya que éste tiene que estar descrito por una teoría sin gravedad en una dimensión menos. Este principio, además, casa bien con la que, a mi juicio, es la mejor manera de abordar el problema de la información de los agujeros negros: el princpio de complementariedad. Alicia, que ha entrado en un agujero negro grande, no ha sentido nada especial cuando ha atravesado el horizonte para, después, morir en la singularidad. En cambio, para Bob, Alicia ha sido empaquetada en el horizonte de sucesos y expulsada, ya muerta, en forma de radiación térmica. Son dos historias contradictorias, pero no hay forma en el universo de confrontarlas entre sí, ya que, si Bob espera a recoger desde fuera del agujero negro los restos de Alicia para llevarlos al interior y enseñarselos a Alicia, cuando Bob entra al agujero negro, Alicia ya ha sido destruída en la singularidad. No hay ninguna forma experimental de que esas dos historias colisionen con lo que tenemos que admitir que ambas son ciertas a la vez, y que la vida de Alicia dentro del agujero negro es físicamente equivalente a la de ella en el horizonte, que el espacio-tiempo que Alicia está experimentando es emergente, está codificado en el horizonte.


En este post no hemos tenido tiempo e hablar de la correspondencia AdS/CFT, que es un modelo matemático preciso del principio holográfico en universos asintóticamente Anti-de Sitter (AdS). Según esta correspondencia, a la que llegó Maldacena estudiando cómo la teoría de cuerdas describe los agujeros negros, la física de cuerdas en ciertos espacios cuya parte no compacta es asintóticamente AdS, que es una física que describe la gravedad cuántica, es equivalente a la física codificada en la CFT (sin gravedad) que vive en la frontera de AdS. Se da la situación paradójica de que, para poder tener un modelo matemáticamente consistente en el UV de la gravedad cuántica, hemos postulado que el universo está hecho de nuevas estructuras, cuerdas en vez de las partículas que describen las teorías cuánticas de campos. Y ahora descubrimos que esas cuerdas no son tan fundamentales como se propuso originalmente, ya que los elementos dinámicos de la CFT equivalente vuelven a ser las partículas de la teoría cuántiaca de campos, pero en una dimensión menos. El propio espacio en el que vibran y se mueven esas cuerdas no es más que un constructo emergente que surge de las excitaciones de las partículas en la frontera de ese espacio. En palabras de Jose Luis Fernández Barbón, "el carácter revolucionario no está en la necesidad de inventar nuevas estructuras, sino en interpretar el propio espacio como emergente", en ver al espacio con otros ojos, como hizo Galileo con el péndulo.



Sobre el autor: Sergio Montañez Naz es doctor en física teórica y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.
 

Referencias bibliográficas

  • Agmon N B, Bedroya A, Kang M J, Vafa C (2022), "Lectures on the string landscape and the Swampland,'' [arXiv:2212.06187 [hep-th]].
  • Brennan T D, Carta F, Vafa C (2017), "The String Landscape, the Swampland, and the Missing Corner,'' PoS TASI2017 (2017), 015 doi:10.22323/1.305.0015 [arXiv:1711.00864 [hep-th]].
  • Fernández-Barbón J L (2014). Los agujeros negros. CSIC-Catarata.
  • Frolov, V. P. and Page, D. N. (1993). "Proof Of The Generalized Second Law For Quasistationary Semiclassical Black Holes". Phys. Rev. Lett. 71 (1993) 3902.
  • Hawking, S. W. (1971). "Gravitational Radiation From Colliding Black Holes". Phys. Rev. Lett. 26 (1971) 1344.
  • Hawking S.W. (1975), "Particle Creation by Black Holes", Commun. Math. Phys. 43 (1975) 199{220.
  • Horowitz, G. T. (1997). "Quantum states of black holes". arXiv:gr-qc/9704072.
  • Horowitz, G. T. and Polchinski, J. (1997). "A correspondence principle for black holes and strings". Phys. Rev. D 55 (1997) 6189.
  • Landau, L. D. and Lifshitz, E. M. (1992). "Teoría Clásica de los Campos". Volumen 2 del Curso de Física Teórica. Reverté. Primera edición. Barcelona.
  • Lüst D, Vleeshouwers W (2018), Black Hole Information and Thermodynamics (arXiv:1809.01403)
  • Maldacena, J. M. (1998). "Black holes and D-branes". Nucl. Phys. Proc. Suppl. 61A (1998) 111.
  • Maldacena, J. M. (1996). "Black holes in string theory". arXiv:hep-th/9607235.
  • Mitchell, D. and Turok, N. (1987). "Gauge field theories and cosmology". World Scientific Publishing Co.
  • Motl, Lubos. Diversos posts en su difunto blog TRF.
  • Sen, A. (1995). "Extremal black holes and elementary string states". Mod. Phys. Lett. A 10 (1995) 2081.
  • Susskind, L. (1993). "Some Speculations About Black Hole Entropy In String Theory". arXiv:hep-th/9309145.

No hay comentarios:

Publicar un comentario