3 ago 2024

Si hacemos mucho zoom, ¿sigue existiendo la geometría?

 

 
By Jarrokam - Own work, CC BY-SA 4.0, Link

 

El descubrimiento de las geometrías no euclídeas y la formulación de la teoría de la relatividad general nos enseñó, hace ya más de un siglo, que la geometría del mundo físico no corresponde en general a la geometría euclídea que, de manera ingenua, esperábamos y que experimentamos en nuestra vida cotidiana. El nacimiento de la física moderna, con el advenimiento de la relatividad y la física cuántica, nos hizo ver que la naturaleza no tiene la obligación de ajustarse a nuestras percepciones intuitivas y limitadas. La imagen mental que teníamos del universo, construida sobre la base de nuestras experiencias diarias, no reflejaba fielmente la estructura de la realidad.

Por ejemplo, para Kant, el espacio y el tiempo eran las condiciones a priori fundamentales del conocimiento científico, inherentes a la estructura del sujeto, con lo que no provenían de los datos de los sentidos. Eran previos a la experiencia. Como condiciones a priori son universales y necesarios, y son los que hacen posible la experiencia (por ello son denominados también condiciones transcendentales). Para el filósofo de Konigsberg espacio y tiempo son el modo como percibimos todas las impresiones, no poseen contenido empírico y su validez es independiente de la experiencia. Pero en la relatividad general, el espacio y el tiempo se combinan en un solo ente, el espaciotiempo, que se curva y se deforma en presencia de energía. Esta curvatura es descrita por una geometría diferenciable y no euclidiana, conocida como geometría riemanniana (con signatura lorentziana). Las trayectorias de los objetos en movimiento no sometidas a ninguna interacción más que la gravitatoria, incluyendo la luz, no son más que geodésicas en este espaciotiempo, curvado por la distribución de energía concreta que haya. Esto supuso un desafío a la concepción kantiana del espacio y el tiempo. El hecho de que en relatividad general la materia condicione la estructura del espacio-tiempo acaba con la idea de que espacio y tiempo son anteriores a la experiencia. Esto impactço a los pensadores posteriores. Por ejemplo, en la base de la filosofía que caracteriza al Círculo de Viena y a su entorno de influencia, donde habría que añadir a Hans Riechenbach, se encuentran incluidas de forma esencial las enseñanzas epistemológicas y metodológicas que proporciona el estudio del surgimiento de la relatividad, estudio que obliga a un reajuste de la concepción kantiana del espacio y del tiempo. Así, Reichenbach escribía [SánchezRon1985] en 1932:

“La teoría de la relatividad me impresionó inmensamente y me llevó a un conflicto con la filosofía de Kant. La crítica de Einstein al problema del espacio-tiempo me hizo darme cuenta de que el concepto de a priori de Kant no se puede mantener.”


El propio Einstein habló sobre este tema en una conferencia sobre las consecuencias filosóficas de la relatividad en la Academia de Ciencias de Barcelona, durante el viaje que realizó a España en 1923. Para Einstein la relatividad no es contraria a la línea de pensamiento de Kant de considerar que todo conocimiento tiene una base a priori, pero impone algunas restricciones. Con la relatividad especial la simultaneidad pierde su caracterización a priori y con la relatividad general el espacio geométrico a priori también pierde su status. No puede haber geometría aparte de la física [Glick1986].

No obstante, visto a posteriori, el cambio conceptual que supuso la relatividad general sobre nuestra concepción del espaciotiempo no es tan radical como parecía. Después de todo, una variedad diferenciable localmente parece un espacio plano, con lo que el espaciotiempo en relatividad general es isomorfo al espacio de Minkowski en el entorno de cada suceso.

Pero la relatividad general no es una teoría cuántica y, si hacemos mucho zoom y nos vamos al mundo ultramicroscópico, es de esperar que los efectos cuánticos sean predominantes. La pregunta que surge entonces es si la geometría diferenciable de la relatividad general sigue siendo aplicable a escalas de longitud muy pequeña.Y eso es lo que vamos a discutor en este artículo.

 


Por qué la gravedad tiene que ser cuántica

 
En primer lugar, en relatividad general la métrica del espaciotiempo es también el campo gravitorio, con lo que hay una posibilidad de que la geometría diferencial de la relatividad general se siga aplicando microscópicamente y es que la interacción gravitatoria no sea cuántica, sino clásica. Pero esto es imposible. La gravedad tiene que estar sujeta a la mecánica cuántica porque tenemos más que comprobado que todas las demás interacciones son cuánticas. Sería lógicamente imposible que conviviera una teoría puramente clásica de la gravedad con las teorías cuánticas de las otras interacciones ya que, en una base de estados determinada las otras interacciones de la naturaleza llevan genéricamente a los sistemas físicos a superposiciones que, al ser estos sistemas físicos también fuente del campo gravitatorio, implicarían superposiciones cuánticas del mismo campo gravitatorio. Cualquier intento de combinar objetos cuánticos con los clásicos en una sola teoría nos lleva a inconsistencias insalvables. 

En concreto, sería imposible que los objetos clásicos en esa teoría híbrida evolucionaran de acuerdo con los valores esperados de algunos operadores cuánticos. Si este fuera el caso, el colapso de la función de onda se convertiría en un proceso físico, ya que éste hace que cambien los valores esperados, y eso se reflejaría en las cantidades clásicas que describen a los objetos clásicos de esa teoría. Pero ya hemos explicad en este post y en este otro también que el colapso de la función de onda ni es ni puede ser un proceso físico. Eso conduciría a violaciones de la localidad y la causalidad. Uno podría transmitir información superlumínica sobre el colapso de una función de onda incluso hacia el pasado. Es totalmente esencial para la consistencia de la mecánica cuántica, y su compatibilidad con la relatividad, mantener el colapso de la función de onda como un proceso no físico. Eso prohíbe que los observables dinámicos clásicos interactúen mutuamente con los observables cuánticos. La necesidad de una descripción cuántica de la gravedad se deriva de la naturaleza cuántica del resto de las interacciones fundamentales y de la inconsistencia lógica y matemática de combinar teorías clásicas y cuánticas en un solo marco coherente.

La escala de Planck

 
Una vez tenemos claro que la gravedad tiene que ser cuántica también, la pregunta de si la geometría del espaciotiempo sigue siendo tal y como la conocemos una vez tenemos en cuenta los efectos cuánticos en rigor sólo puede responderse con una teoría cuántica de la gravedad. En esta teoría, además de jugar un papel fundamental la constante $G$ de gravitación universal, que nos dice cómo de intensa es la interacción gravitatoria, y la velocidad de la luz en el vacío $c$, que es la velocidad máxima de propagación de las interacciones, también entra en juego la constante de Planck $h$ o, como nos gusta usar a los físicos, la constante de Planck reducida $\hbar$. Jugando con estas tres constantes podemos definir la longitud de Planck.

La longitud de Planck $l_p$ es la única longitud que se puede construir multiplicando potencias de $c$, $\hbar$ y $G$. Como estas tres constantes caracterizan, respectivamente, a los procesos fundamentales en relatividad especial, mecánica cuántica y gravitación, la escala de longitud que se obtiene juntándolas expresa la longitud típica de los procesos gravitatorios cuánticos y relativistas. Análogamente, con estas tres constantes se puede definir también el tiempo de Planck $t_p$, la masa de Planck $m_p$ y la temperatura de Planck $T_p$:


Esto hace que se pueden definir el área de Planck, el volumen de Planck, la cantidad de movimiento de Planck, la energía de Planck, la fuerza de Planck, la densidad de Planck, la aceleración de Planck, etc.

Notese que en un universo de (3+1) dimensiones espaciotemporales como el nuestro la fuerza de Planck tiene un nombre engañoso, porque no depende de la constante de Planck. Su significado físico no tiene nada que ver con la mecánica cuántica y lo hemos discutido en un artículo anterior.
 
Se observa que estamos hablando de longitudes, tiempos, areas y volúmenes extremadamente pequeños en comparación con las escalas a las que podemos acceder experimentalmente, mientras que las correspondientes masas, temperaturas, cantidades de movimiento, energías, fuerzas, densidades y aceleraciones son muchísimo más grandes que las que podemos conseguir experimentalmente. No debe confundirnos el hecho de que $m_p$ y $E_p$ nos parezcan pequeñas. Son masas y energías enormes para que puedan estar acumuladas en una sola partícula elemental. Nótese, por ejemplo, que la masa de Planck es del orden de $10^{19} veces la masa del protón$.

Esta escala ya fue propuesta por Planck nada más introducir la constante que lleva su nombre para explicar el espectro de radiación del cuerpo negro. Planck se dio cuenta de que "es posible establecer unas unidades para la longitud, la masa, el tiempo y la temperatura que son independientes de cuerpos o sustancias especiales y que necesariamente conservan su significado para todas las épocas y para todas las civilizaciones, incluyendo extraterrestres y no humanas. Esas unidades pueden ser llamadas “unidades naturales de medida”". Por eso llamamos sistema de unidades de Planck o unidades naturales al sistema de unidades $l_p$, $t_p$ y $m_p$ de longitud, tiempo y masa en el las contantes de la naturaleza $c$, $\hbar$ y $G$ valen uno. En este sistema, por tanto, el valor numérico de las distancias coincide con el del tiempo que tardaría la luz en recorrerlas, con lo que de forma efectiva las longitudes y los tiempos son magnitudes con las mismas dimensiones. Lo mismo ocurre con la masa, la cantidad de movimiento, la energía y la frecuencia: de forma efectiva todas estas magnitudes tienen las mismas dimensiones, que son inversas a las de distancia.

En el sistema de unidades naturales nos damos cuenta de que es extraño que la masas de las partículas elementales que conocemos, las escalas de QCD y de ruptura electrodébil y la densidad de energía oscura sean números tan extremadamente pequeños. Para saber qué implica llevar a las partículas elementales conocidas a tener energías comparables a la escala de Planck vamos a profundizar en el significado físico de esta escala. Se ha extendido el mito de que, por ejemplo, la longitud de Planck es la mínima longitud que existe porque el espaciotiempo está formado por píxeles que tienen ese tamaño. Sin embargo, vamos a ver que esto no es así.

El significado físico de la longitud de Planck


En teoría cuántica de campos locales, por ejemplo, en el caso más simple, el campo de Klein Gordon, la amplitud de probabilidad de que una partícula de masa $m$ se propague, desde un suceso del espaciotiempo hasta otro desconectado causalmente del primero, decrece a grandes distancias como la exponencial decreciente
$ e^{-mcr/\hbar} $
donde $r$ es la distancia entre ambos sucesos en el sistema de referencia en el que ambos ocurren simultáneamente. Esta amplitud de propagación no es cero, pero esto no supone una violación del principio de velocidad máxima de propagación de las interacciones, ya que se puede demostrar que una medición llevada a cabo en el primer suceso espaciotemporal no afecta a una segunda medición llevada a cabo en el segundo suceso. Lo que esta exponencial decreciente nos está diciendo es que existe una correlación entre esos dos puntos separados una distancia $r$, correlación que sólo se hace despreciable si esa distancia $r$ es muy superior a
$ \lambda = \frac{\hbar}{mc} $
Es decir, las partículas sólo se pueden considerar como entes localizados en un punto concreto del espacio si nuestros detectores no son capaces de detectar variaciones espaciales de tamaño del orden de magnitud de $\lambda$. Este es el motivo por el que a $\lambda$, a demás de longitud de onda de Compton, se la denomina el "tamaño cuántico de la partícula". Nótese que cuanto mayor sea la masa de una partícula, menor es su tamaño cuántico, lo que está en correspondencia con el hecho de que en teoría cuántica de campos al dar más energía exploramos distancias cada vez más pequeñas. También es importante señalar que lo que tenemos aquí es una exponencial decreciente, no una función que abruptamente pasa a valer cero a partir de un valor concreto $\lambda$.

Por otro lado, de la relatividad general sabemos que si conseguimos contraer, sin que cambie su masa, un objeto hasta un tamaño inferior al radio de Schwarzschild
$ R_S=\frac{2GM}{c^2} $
entonces ese objeto se convierte en un agujero negro. Por eso al radio de Schwarzschild se le llama también el "tamaño gravitacional del objeto". Este tamaño gravitacional es proporcional a la masa del objeto. Imaginemos ahora que queremos crear un agujero negro de tamaño $10^{-40}$ metros. Si hacemos la cuenta, necesitamos coger una masa de unos $10^{14}$ veces la masa del protón y comprimirla hasta los $10^{-40}$ metros de radio. Pero por culpa de los efectos cuánticos no podemos hacer esto. Llegaría un momento en el que el tamaño de esa masa se haría más pequeño que el tamaño cuántico $\lambda$ asociado a esa masa. Por debajo de ese tamaño las partículas no están localizadas. Eso significa que el agujero negro más pequeño que podemos tener es el que tiene una masa que hace igual en orden de magnitud a su tamaño gravitacional y a su tamaño cuántico. Si igualamos $R_S=\lambda$, se obtiene que esa masa es justamente la masa de Planck y su tamaño es justamente la longitud de Planck. Por debajo de la masa de Planck las correcciones cuánticas afectan a un tamaño superior al radio de Schwarzschild, de tal forma que ya no podemos asegurar que lo que tenemos es un agujero negro porque la relatividad general deja de ser válida a esas distancias. Es decir, la masa de Planck nos da la masa del agujero negro más pequeño que podemos tener.

A su vez, si queremos explorar distancias cada vez más pequeñas, necesitaríamos utilizar partículas elementales cada vez más localizadas, es decir, partículas elementales con cada vez más masa. Pero al superar la masa de Planck, para conseguir un tamaño cuántico inferior a la longitud de Planck, la partícula se convertiría en un agujero negro, su radio de Schwarzschild empezaría a crecer y ya no nos sería posible explorar esas distancias tan pequeñas (es importante señalar que nos estamos refiriendo aquí a distancias propias, que son invariantes relativistas porque, aunque en el sistema de referencia en el que dos sucesos ocurren simultáneamente la distancia entre ellos sea de tamaño superior a la longitud de Planck, en otro sistema de referencia esa distancia será menor, y puede perfectamente ser inferior a la longitud de Planck). En conclusión, son los agujeros negros los que nos dicen cuál es el significado físico de la longitud de Planck: a distancias del orden de magnitud de la longitud de Planck la geometría clásica deja de poder ser explorada experientalmente. Y, si no se puede explorar experimentalmente, entonces no tenemos ningún motivo para creer que existe. Es decir, nuestra idea de la geomatría, como geometría diferencial, deja de funcionar a distancias tan pequeñas como la longitud de Planck. Además, provocando esto los agujeros negros rompen con la propiedad que tienen las teorías cuánticas de campos relativistas de que dar mayor energía implica explorar distancias más pequeñas, y esta es la raíz de que rompan con el desacoplo UV/IR de las teorías de campos efectivas, como explicaremos en un post posterior.

Es importante aquí remarcar que la existencia de la longitud de Planck no impica que el universo esté hecho de píxeles. Una vez que tenemos claro qué es la longitud de Planck, podemos entender que el valor concreto de $1,6 \cdot 10^{-35}$ metros es tan importante como cualquiera de las demás distancias del mismo orden de magnitud. No hay ningún cambio abrupto en ese valor concreto. A distancias propias de ese orden de magnitud la geometría clásica que describe la relatividad general deja de funcionar, pero eso no significa que las distancias se vuelvan discretas. El operador posición no tiene por qué pasar a tener un espectro discreto. De hecho, en el único marco consistente que tenemos ahora mismo para describir la naturaleza a esas distancias, la teoría de cuerdas, el espaciotiempo no se hace discreto a la escala de Planck. Lo que ocurre es que no es posible explorar esas distancias tan pequeñas porque no hay ningún objeto en la teoría (por ejemplo, partículas puntuales) capaces de explorarlas. Esto hace que los intervalos, las superficies y los volúmenes no se puedan localizar a escala planckiana. Como en teoría de cuerdas el espaciotiempo no es discreto, ni siquiera a la escala de Planck, el espacio de Hilbert de todos los estados cuánticos del universo no sólo no puede tener dimensión finita, sino que tampoco esta dimensión puede ser infinita numerable. Esto, junto con el hecho de que en mecánica cuántica los valores discretos que toman algunos observables son emergentes, mediante el fenómeno de las interferencias, a partir de una realidad subyacente continua, implica que es imposible que toda la física que observamos sea fruto de una simulación informática, como explico en otro post.

 

La longitud de Planck en d dimensiones 

 
Una de las predicciones de la teoría de cuerdas es que existen dimensiones extra. Si éstas son compactas, la cantidad de movimiento de las cuerdas en esas direcciones extra sólo puede tomar valores discretos y, si el volumen de estas dimensiones extra es suficientemente pequeño, entonces es posible que con las energías a las que podemos acceder experimentalmente sólo podemos llegar al nivel de cantidad de movimiento en esas direcciones más bajo, con lo que no seríamos capaces de detectar esas dimensiones extra. No seríamos capaces de detectar que los objetos se mueven en esas direcciones y no veríamos que los campos efectivos cambian al movernos en las direcciones extra.
 
Y hay que señalar aquí que, en el caso de que existan esas dimensiones extra y de que éstas sean indetectables a baja energía, la escala de Planck es distinta para la teoría con dimensiones extra que para la teoría efectiva cuadridimensional que describe la física a la que podemos acceder a baja energía. En efecto, como a bajas energías en primera aproximación podemos suponer que los campos no dependen de las coordenadas que parametrizan las dimensiones extra, podemos hacer la intergral en el volumen $V_{d-3}$ de estas dimensiones extras, obteniéndose:
$ S_{EH} =\frac 1{16\pi G_{d+1}^N}\int dx^{d+1}\sqrt{G_{d+1}}R_{d+1} =\frac{V_{d-3}}{16\pi G_{d+1}^N}\int dx^{4}\sqrt{G_{4}}R_{4}$
de donde se obtiene que la constante de gravitación de Newton en 3+1 dimensiones sería distinta a la de la teoría con más dimensiones:
$G^N_{4}=G^N_{d+1}/V_{d-3}$
En $d+1$ dimensiones la constante de gravitación universal tiene unidades diferentes, con lo que la relación con la longitud de Planck es diferente:
$l_p^(d+1)=\left(\frac{\hbar G^N_{d+1}}{c^3}\right)^{1/(d-1)}$
lo que hace que la relación entre las longitudes de Planck en $3+1$ dimensiones y en $d+1$ dimensiones sea:
$l_p^{(3+1)}=l_p^{(d+1)}\left(  \frac{l_p^{(d+1)}}{V_{d-3}^{1/(d-3)}}  \right)^{\frac{d-3}{2}}$
Por ejemplo, si hubiera 6 dimensiones extra con un volumen de $V_{d-3}\sim 10^{-15} m$, lo que implicaría la ley de gravitación universal tendría un 8 en el exponente, pero sólo a distancias tan pequeñas que sin inaccesibles a los experimentos sobre gravitación que podemos hacer hoy en día, entonces, como $l_p^{(3+1)} \sim 10^{-35} m$, entonces se tendría que la longitud de Planck en la teoría (d+1)-dimensional, $l_p^{(d+1)}\sim 10^{-20} m$, no sería tan pequeña como la de la teoría efectiva cuadridimensional a la que podemos acceder nosotros. Por supuesto, la teoría de cuerdas también permite que haya dimensiones extra de tamaños mucho mayores si suponemos que los campos del Modelo Estándar vienen de la física a baja energía en unas branas de (3+1) dimensiones y que las dimensiones extras están warpeadas.

Ya hemos dicho que, cuanto más pequeño sea el volumen de las dimensiones extra mayor es la cantidad de movimiento de las cuerdas que viajan en esa dirección y que no estén en el nivel de cantidad de movimiento más bajo. Por tanto, mayor es la energía de estas cuerdas. Pero entonces se hace menor la energía de las cuerdas enrolladas en esas dimensiones extra al estar menos "tensas", y se puede demostrar que esos modos de cuerdas enrolladas acaban jugando el mismo papel que jugaban las cuerdas que tenían cantidad de movimiento en esa dirección cuando la longitud de ésta era grande. Hay una dualidad entre ambas descripciones (denominada T-dualidad) que hace que los tamaños pequeños comparados con la longitud de Planck ni siquiera tengan significado físico, al ser duales con otros más grandes. Ambas situaciones describen la misma física. Y este es el motivo por el que, en teoría de cuerdas, longitudes más pequeñas que la de Planck no tienen significado físico y, a la vez, el espacio no está pixelado, sino que es continuo. 


Conclusión


En resumen, salvo que haya dimensiones extra muy grandes o warpeadas, la longitud de Planck es la mínima escala de longitud a la que podemos asignar un significado geométrico clásico y, aun así, tendríamos la longitud de Planck de la teoría $d+1$-dimensional jugando el mismo papel. Esta longitud de Planck la podemos entender como el radio del agujero negro más pequeño que todavía obedece más o menos a las leyes clásicas de la relatividad general. Objetos con menos masa (para que tengan un radio gravitacional más pequeño) ya no se comportarían como agujeros negros, sino más bien como partículas elementales con un tamaño cuántico más grande que la longitud de Planck. Esto hace que la longitud de Planck sea también la distancia más pequeña que podríamos explorar en principio con los aceleradores de partículas más potentes que podamos imaginar antes de que la incertidumbre cuántica de las partículas se haga del 100% por culpa de efectos gravitacionales (aparición de agujeros negros), lo que se manifiesta en fenómenos microscópicos no locales, fluctuaciones cuánticas de la métrica y correcciones con derivadas más altas a la acción de Einstein-Hilbert que hacen que ya no tenga sentido considerar distancias más pequeñas. Es, por tanto, la distancia a la que los axiomas de la geometría diferencial dejan de cumplirse.

Aumentar la energía de las partículas en los colisionadores más allá de la masa de Planck sólo serviría para que esos agujeros negros que se forman sean cada vez más grandes, lo que implicaría tener una peor resolución. Nótese que esto también significa que estamos obligados a tratar a todas las teorías cuánticas de campos de interés en física como teorías efectivas por debajo de algún cut-off inferior a la energía de Planck. En efecto, en todas ellas, incluso aunque se trate de campos libres (que no interaccionan con nada) hay un oscilador en cada punto del espacio-tiempo. La teoría cuántica de campos nos dice que podemos excitar este grado de libertad hasta energías arbitrariamente altas. Pero la gravedad es la única interacción a la que está obligatoriamente sometida toda la materia y energía. Una vez que acoplamos esos campos a la gravedad, ya no es cierto que se puedan excitar esos osciladores a energías tan altas como queramos, porque cuando se concentra suficiente densidad de energía en una pequeña región del espacio, ésta colapsará para formar un agujero negro. Los agujeros negros violan por tanto, el desacoplo IR/UV en el que estaba basada toda la física anterior. Pero eso lo dejamos para otro post.


Sobre el autor: Sergio Montañez Naz es doctor en física teórica y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.
 
 

 Referencias bibliográficas

  • Einstein, A. (1932) “Apuntes autobiográficos para propósitos académicos” Berlin 1932. Reproducido en SÁNCHEZ RON, Jose Manuel: El origen y desarrollo de la relatividad. Alianza. Madrid.1985
  • Glick, Thomas F. (1986) : Einstein y los españoles. Alianza. Madrid. 1986
  • Landau, L. D. and Lifshitz, E. M. (1992). "Teoría Clásica de los Campos". Volumen 2 del Curso de Física Teórica. Reverté. Primera edición. Barcelona.
  • Lüst D, Vleeshouwers W (2018), "Black Hole Information and Thermodynamics" (arXiv:1809.01403)
  • Ortín T. Gravity and Strings, Cambridge University Press, 2015, ISBN 978-0-521-76813-9, 978-0-521-76813-9, 978-1-316-23579-9 doi:10.1017/CBO9781139019750.
  • Sánchez Ron, Jose Manuel (1985): El origen y desarrollo de la relatividad. Alianza. Madrid.1985
  • Wald R.M. (1984), General Relativity, Chicago Univ. Pr., 1984, doi:10.7208/chicago/9780226870373.001.0001
  • Zwiebach B. (2004). A First Course in String Theory. Cambridge University Press; 2004.
     

 

1 ago 2024

¿Cuál es el significado físico del tamaño gravitacional de un objeto?

 
By Cmglee - Own work, CC BY-SA 4.0, Link

 

La relatividad general es una teoría de la interacción gravitatoria y, a la vez, relativista. Los fenómenos en los que los efectos relativistas de la interacción gravitatoria se manifiestan vienen en esta teoría caracterizados, por tanto, por las constantes fundamentales $c$ y $G^N_4$, que son respectivamente la velocidad de la luz en el vacío y la constante de gravitación de Newton. En un mundo como el nuestro, con $d+1=4$ dimensiones espaciotemporales, la constante de gravitación de Newton $G^N_4$ tiene dimensiones de longitud al cubo partido por masa y partido también por tiempo al cuadrado. Esto hace que, a todo objeto de masa $M$ en relatividad general se le pueda asociar un tamaño virtual, que vamos a llamar tamaño gravitacional del objeto $R_G$, de valor:
$R_G=G^N_4M/c^2$
(en lo que sigue trabajaremos con unidades en las que $c=1$, con lo que longitud y tiempo tienen las mismas dimensiones y escribiremos $R_G=G^N_4M$). Este tamaño gravitacional del objeto no es en general el tamaño del objeto, sino un tamaño característico de este objeto que es proporcional a su masa. Por ejemplo, el Sol tiene un tamaño que viene dado por un radio de $7 \cdot 10^5$km, pero su tamaño gravitacional es de 1,5 km. Y la Tierra tiene un radio de unos 6400 km, pero su radio gravitacional es de unos 4,5 mm. Es decir, desde que entendemos, gracias a Einstein, aunque no sólo a él, cómo son los aspectos relativistas de la interacción gravitatoria, a cada objeto le podemos asignar, además de su tamaño real, otro tamaño "virtual" $R_G$, que es proporcional a su masa. Como es distinto al tamaño físico del objeto, ¿qué significado físico tiene este tamaño gravitacional? Eso es lo que vamos a explicar en este post.



Antes de la construcción de la relatividad general, en relatividad especial la estructura causal del espacio-tiempo, que es el espacio cuadridimensional de Minkowski, venía descrita por un cono de luz asociado a cada suceso $p$. Sólo los sucesos en la superficie y en el interior de la parte superior del cono de luz pueden ser influenciados por $p$, y sólo los sucesos de la superficie y el interior de la parte inferior del cono pueden afectar causalmente a $p$. En relatividad general, en cambio, la estructura causal del espacio-tiempo viene determinada por la métrica $G_{\mu\nu}$ y, aunque localmente es topológicamente la misma que en relatividad especial, puede haber globalmente muchas diferencias. Una de ellas podría ser que un suceso sea parte del futuro causal de otro suceso y, a la vez, parte de su pasado. Para evitar problemas vamos a restringirnos sólo a espacio-tiempos en los que pueda hacerse una designación continua de qué mitad del cono es el futuro y qué mitad es el pasado.

No obstante, hay otras diferencias de tipo global con Minkowski que sí que son físicamente aceptables, como la que exista una región del espacio-tiempo, denominada agujero negro, de forma que ninguna partícula o rayo de luz pueda escapar hacia el exterior de ésta. Es claro que esta definición tiene que ser matizada de alguna forma, ya que, de lo contrario, el futuro causal de cualquier suceso del espacio tiempo sería un agujero negro. Para ello hay que especificar cuál es la región del espacio-tiempo de posible escape. Vamos a restringir nuestra atención a espacio-tiempos que sean asintóticamente planos, es decir, que se hagan minkowskianos "lejos'' de alguna "región central" y esto "en todo instante de tiempo''. Para la presente discusión no necesitamos más detalles. Una definición rigurosa de espacio tiempo asintóticamente plano viene dada en [Wald1984]. Los espacios asintóticamente planos representan en relatividad general sistemas aislados. Podemos así dar la definición de que un agujero negro es una región del espacio-tiempo situada en esa "región central'' desde la que no es posible escapar hacia la región asintótica. Su frontera, que es una superficie nula, se denomina horizonte de sucesos.

Empecemos repasando algunas soluciones concretas de tipo agujero negro que aparecen en teorías que contienen la gravitación, para luego tratar el tema de forma más general. Este es un post técnico, para estudiantes universitarios de física. Si lo que buscas es un post de divulgación sobre agujeros negros, apropiado para quien tenga conocimeintos de física de nivel de Bachillerato, es mejor que leas este otro artículo.

La solución de Schwarzschild


En relatividad general, la acción para el campo gravitatorio en ausencia de materia, denominada de Einstein-Hilbert es
$ S_{EH}\left[ G\right] =\frac 1{16\pi G_4^N}\int dx^4\sqrt{G}R\left[ G\right] $
Las ecuaciones de movimiento clásicas que se derivan de esta acción son
$ R_{\mu \nu }=0 $
La única solución esféricamente simétrica (teorema de Birkhoff) de estas ecuaciones es la solución de Schwarzschild:
$ ds^2=-fdt^2+f^{-1}dr^2+r^2d\Omega _2^2 $
donde $f=1-\frac{R_S}{r}.$, siendo $R_S$ una constante con unidades de longitud que caracteriza a la solución y que se llama radio de Schwarzschild. Esta solución tiene las siguientes propiedades:
  • Es una solución asintóticamente plana. Eso significa que esta solución describe un objeto o conjunto de objetos situado en el espacio de Minkowski.
  • Es también una solución constante, ya que existe un sistema de coordenadas, las de las fórmulas anteriores, en el que los coeficientes de la métrica son independientes de una coordenada, $t$ en este caso, que hace de tiempo universal. Otra forma de verlo es que el vector que genera las traslaciones de $t$ es un vector de Killing. Como, en rigor, un campo gravitatorio producido por varios objetos que sólo interaccionan gravitatoriamente nunca puede ser constante, porque su atracción gravitatoria mutua daría lugar a un movimiento, podemos decir que se trata del campo gravitatorio producido por un sólo objeto.
  • Además, es una solución estática, porque es constante y las componentes $G_{0\alpha}$ de la métrica son nulas (donde aquí $\alpha$ es un índice espacial). Ese objeto no tiene rotación.
  • Si consideramos sólo el caso $R_S>0$, en $r=R_S$ algunos coeficientes de la métrica divergen. Pero esto no quiere decir que en $r=R_S$ haya una singularidad real. El análisis de los invariantes de curvatura revela que se trata sólo de una singularidad de coordenadas, es decir, que aparece sólo como consecuencia de que las coordenadas que se están usando no cubren esa región del espacio-tiempo. El uso de otros sistemas de coordenadas, como por ejemplo las de Kruskal-Szekeres, pone de manifiesto que $r=R_S$ es un horizonte de sucesos [waldrg1984]. La región interior $r<R_S$ es un agujero negro.
  • Aunque $R=0$ y $R_{\mu \nu }R^{\mu \nu }=0$ en todos los puntos, hay otros invariantes de curvatura, como por ejemplo $R^{\mu \nu \rho \sigma}R_{\mu \nu \rho \sigma }=\frac{48\left( \frac{R_S}{2G_4^N}\right)^2\cos ^2\theta }{r^6}+...$ que divergen en $r=0$. Esto pone de manifiesto que en $r=0$ hay una singularidad real, que sigue estando sea cual sea el sistema de coordenadas que se use. 

Kruskal diagram of Schwarzschild chart.svg
By Dr Greg, CC BY-SA 3.0, Link

Penrose diagram for the Kruskal extension of Schwarzschild spacetime. The angular coordinates θ, φ are suppressed so that each point of the diagram can be thought of as representing a 2-sphere of radius r.
Estas figuras  anteriores muestran la máxima extensión analítica de la solución de Schwarzschild, denominada extensión de Kruskal. Los dos diagramas son de tal forma que los conos de luz están inclinados $45^{\circ}$ en todos los puntos. Se observan cuatro regiones:
  • La región I, región asintóticamente plana y exterior al agujero negro.
  • La región II, el interior del agujero negro. Todo observador en su interior acabará en el futuro en la singularidad.
  • La región III, asintóticamente plana.
  • La región IV, un agujero blanco. Todo observador en su interior tiene una singularidad en su pasado y acabar\á, en el futuro, o en la región I o en la IV.
Esta solución de Schwarzschild, al igual que el resto de soluciones de tipo agujero negro, representa un objeto muy extraño. No podemos decir, como en el caso de una estrella, un planeta o una estrella de neutrones, que se trata de materia (energía) localizada en cierto volumen del espacio, de tal forma que la masa (energía) de ese objeto se obtiene integrando la densidad de energía a lo largo de todo el volumen del objeto. En el caso de un agujero negro el área del horizonte de sucesos sí está bien definida, y viene dada por $A=4\pi R_S^2$, pero no podemos definir el volumen de su interior, porque en el interior del agujero negro la coordenada $t$ deja de ser temporal para pasar a ser espacial, mientras que la coordenada $r$ se convierte en una coordenada temporal. Así que no podemos decir que ahí la solución sea constante. Además, la densidad de energía, que viene dada por la componente $T_{00}$ del tensor energía impulso, es nula en todas partes en el caso de un agujero negro, porque se trata de una solución de las ecuaciones de Einstein en el vacío.

En la relatividad general no existe un método preciso general para calcular la masa exacta de un objeto integrando alguna cantidad en el interior de éste. La masa del agujero negro o de cualquier otro cuerpo celeste solo se puede calcular con precisión desde el exterior, por ejemplo, comparando cómo es la métrica lejos del objeto con el límite newtoniano $-G_{00}=1+2\phi/c^2$, siendo $\phi $ el potencial gravitatorio. Así es como se define la masa de Arnowitt-Deser-Misner (ADM) del objeto, que en el caso del agujero negro de Schwarzschild es $M=\frac {R_S}{2G_4^N}$. Podemos decir que la masa ADM es el numerador de la fracción que determina la desviación de la componente $G_{00}$ con respecto a la de Minkowski lejos del objeto, es decir, viendo cómo es el campo gravitatorio del objeto lejos de éste. Sin embargo, eso no significa que el interior del agujero negro, región II, sea la causa del campo gravitatorio que hay en su exterior, región I, aunque ambas regiones están continuamente conectadas. En el caso de un agujero negro, esta interpretación de la causa y el efecto está estrictamente prohibida porque el espacio-tiempo externo no pertenece al cono de luz futuro del interior. Nada de lo que ocurra o que haya en el interior del agujero negro puede influir en la región exterior. Al contrario, la singularidad del agujero negro es una consecuencia del fuerte campo gravitacional que ha existido alrededor del objeto, y podemos considerar que ese objeto es pura geometría. Recordemos que en la física de Newton el campo gravitatorio se podía interpretar como una consecuencia secundaria causada por los objetos, que son primarios, e incluso se podía considerar que era simplemente un concepto matemático auxiliar sin existencia física. Pero en relatividad, al existir una velocidad máxima de propagación de las interacciones, los campos gravitatorios son tan reales como los objetos con masa y están constituidos por la métrica del espaciotiempo.

Pero, además, este campo gravitatorio tiene consecuencias sorprendentes para los objetos que se mueven a través de él. Para verlo, consideremos dos observadores situados en la región I: Alice, que está en caída libre hacia el agujero negro, y Bob, que se mantiene alejado del agujero negro y a una distancia fija con respecto a los observadores asintóticos. Supongamos además que Alice está enviando señales de forma periódica a Bob. Entontes, la métrica de Schwarzschild nos dice que estas señales serán recibidas por Bob separadas cada vez con un intervalo temporal mayor, ya que el coeficiente $G_{00}$ de la métrica se va haciendo cada vez más pequeño a medida que nos acercamos al horizonte de sucesos. Si Bob pudiera detectar todas estas señales (formadas por fotones de frecuencia cada vez más pequeña), la caída de Alice le parecería estar congelándose, hasta que llega un momento (para el que Bob tiene que esperar un tiempo infinito pero Alice un tiempo finito) en el que Bob no recibe nada. El horizonte de sucesos precisamente está formado por las trayectorias de los primeros rayos de luz enviados por Alice (por todas las Alice que caen al agujero negro desde todos los ángulos) y que nunca llegan a Bob (prolongadas también hacia el pasado). Lo sorprendente aquí es que esas trayectorias de esos rayos de luz que definen el horizonte, aunque para Alice son trayectorias espaciotemporales que se mueven a la velocidad de la luz, para Bob forman una superficie esférica estática de área $A=4\pi R_S^2$ que, al llegar Alice a ella, se queda ahí congelada.

Pero, por el principio de equivalencia, para Alicia no ocurre nada espacial cuando atraviesa este horizonte. Acaba de pasar una frontera irreversible, pero ella simplemente sigue notando que está en caída libre (ingravidez) y, si su tamaño es pequeño comparado con el tamaño asociado a la curvatura en el horizonte, que es del orden $R_S=2GM/c^2$, grande para los agujero negros astrofísicos, ni siquiera va a notar que las fuerzas de marea se hayan incrementado mucho. De hecho, aunque a Bob le parece que Alice tarda infinito tiempo en llegar desde un punto de coordenada $r$ exterior al agujero negro hasta el horizonte de sucesos, el intervalo de tiempo propio para Alice es finito. Por ejemplo, si Alice partió en línea recta hacia el agujero negro desde muy lejos con energía cinética prácticamente nula, el tiempo propio que tarda Alice en ir desde $r$ hasta el horizonte $R_S$ es de $\frac{2}{3\sqrt{2GM}}(r^{3/2}-R_S^{3/2})$.

No es hasta que Alicia se acerca a la singularidad que empieza a notar unas enormes fuerzas de marea, haciéndose infinitas en la singularidad, a la que llega también en un tiempo finito $\frac{2}{3\sqrt{2GM}}R_S^{3/2}$. Esta singularidad es como el final del tiempo en esta descripción. Pero como la relatividad general deja de ser válida allí, no sabemos qué ocurre en ese punto. De hecho, es muy difícil asignar significado físico al entorno de la singularidad, ya que, no sólo Alice, sino cualquier aparato de medición ahí sería automáticamente destruido sin posibilidad alguna de enviar la información fuera del agujero negro. Desde dentro el agujero negro ya no se ve como algo estático. Todo colapsa en la singularidad.

Sin embargo, es importante remarcar que lo que hace que un agujero negro sea un agujero negro no es la singularidad, sino la existencia del horizonte. Esa es la la definición que hemos dado porque es el horizonte el que hace que los agujeros negros objetos tan sean especiales. Si $R_S>0$, es decir, $M>0$, la singularidad está cubierta por el horizonte, en el sentido de que nada que ocurra en la singularidad puede afectar a un observador lejano en la región asintóticamente plana debido a que $r=0$ está dentro del agujero negro. Pero si hiciéramos $R_S<0$, entonces no ocurre esto porque no hay horizonte. En ese caso no habría agujero negro y se dice entonces que $r=0$ sería una singularidad desnuda. Nótese que esta condición implicaría que $M<0$, pero no debemos llamar a esta solución "agujero negro de masa negativa". No existen los agujeros negros de masa negativa. En primer lugar, porque no hay ninguna simetría en la solución de Schwarzschild entre $M>0$ y $M<0$, ya que el caso $M<0$ es una solución de naturaleza completamente distinta, sin horizontes, con una singularidad desnuda, y, en segundo lugar, porque la solución con $M<0$ no puede ocurrir en una teoría consistente de la gravedad porque causaría que el vacío fuera inestable, ya que se podrían producir regiones de energía negativa y positiva en pares a partir del vacío, sin violar ninguna ley de conservación.


La solución de Reissner-Nordström


Consideremos ahora el campo gravitatorio acoplado a un campo gauge $A_\mu $. La acción de este sistema, denominada de Einstein-Maxwell, es:
$ S_{EM}\left[ G,A\right] =\frac 1{16\pi G_4^N}\int dx^4\sqrt{G}R\left[ G\right] +\int d^4x\sqrt{G}\left[ -\frac 14F_{\mu \nu }F^{\mu \nu }\right] $
donde $F=dA$. Las ecuaciones de movimiento clásicas que se derivan de esta acción son
$ R_{\mu \nu }=8\pi G_4^NT_{\mu \nu }$
$ \nabla _\mu F^{\mu \nu }=0 $
donde $T_{\mu \nu }=F_{\mu \rho }F_\nu ^{\quad \rho }-\frac 14G_{\mu \nu }F_{\rho \sigma }F^{\rho \sigma }$ es el tensor energía impulso asociado al campo gauge y $\nabla $ es la derivada covariante. La única solución esféricamente simétrica de estas ecuaciones que contiene como caso
particular a la solución de Schwarzschild es la solución de Reissner-Nordström [ortin]:
$ ds^2=-fdt^2+f^{-1}dr^2+r^2d\Omega _2^2 $
$ F_{tr}=\frac{4G_4^NQ}{r^2} $
donde $f=\frac{\left( r-r_{+}\right) \left( r-r_{-}\right) }{r^2}$, $r_{\pm}=G_4^NM\pm r_o$ y $r_o=G_4^N\sqrt{M^2-4Q^2}.$ Esta solución tiene las siguientes propiedades:
  • Es una solución estática y asintóticamente plana.
  • Su masa ADM es $M$.
  • Está cargada eléctricamente con carga $Q$ respecto del campo gauge, en el sentido de que $Q=\frac 1{16\pi G_4^N}\int_{S_\infty ^2}*F$, donde $S_\infty ^2$ es la 2-esfera centrada en $r=0$ de radio $R\rightarrow \infty $. Es decir, $Q$ se puede interpretar como la carga total del espacio-tiempo. Nótese que hemos definido así la carga eléctrica para que tenga unidades de masa (hablaremos de esto más adelante en otro post cuando definamos las unidades de Planck).
  • Presenta una singularidad en $r=0$.
  • Si $M>2\left| Q\right| $ hay un horizonte en $r=r_{+}$, pero también hay un horizonte interno en $r=r_{-}$, es decir, la singularidad en los agujeros negros cargados (y también los que tienen rotación) se encuentra cubierta por dos horizontes. Un aspecto extraño de estas soluciones es que hay infinitas maneras de extender la geometría del espacio-tiempo más allá del horizonte interno: las ecuaciones de Einstein dejan de producir extensiones únicas. En esta figura viene representado el diagrama conforme de una extensión analítica de la solución en el caso $M>2\left| Q\right|$. El diagrama es periódico. Al contrario de lo que ocurre en Schwarzschild, un observador en el interior del agujero negro puede evitar la singularidad y salir a otra región del espacio-tiempo asintóticamente plana.
1: Penrose diagram of a typical Reissner-Nordström spacetime.
  • Si $-2\left| Q\right| <M<2\left| Q\right| $ las constantes $r_{+}$ y $r_{-}$ son complejas y no hay horizontes. La singularidad está desnuda.
  • Si $M<-2\left| Q\right| $ las constantes $r_{+}$ y $r_{-}$ son reales y negativas y no hay horizonte. La singularidad está desnuda.
  • El caso especial $M=2\left| Q\right| $ se denomina solución de agujero negro extremal o extremo. En ella, hay un sólo horizonte en $r=r_{+}=r_{-}=$ $G_4^NM$ cubriendo la singularidad. La relación que hay entre la carga y la masa de un agujero negro extremo de Reissner-Nordström permite que existan en la teoría soluciones estáticas que describan varios agujeros negros de este tipo en equilibrio [Ortin2015]. Como veremos más adelante en otro post, estas soluciones de agujero negro extremal son muy interesantes para la física teórica. Sin embargo, no tienen interés para la astrofísica. Es difícil que los objetos astrofísicos tengan carga neta y, si este agujero negro la tiene, entonces la fuerza eléctrica con la que repelería a una carga $q$ lejana del mismo signo (o atraería a la de signo contrario) sería proporcional a $qQ$, mientras que la fuerza gravitatoria de atracción sobre esa carga, de masa $m$, sería proporcional a $mM$. Dado que, para el electrón se tiene $q/m$ ~ $10^{21}$, y para el protón $q/m$ ~ $10^{18}$, si $Q/M$ ~ $10^{-18}$ la fuerza eléctrica con a que el agujero negro repele cargas del mismo signo sería mayor que la fuerza gravitatoria con la que las atrae, lo que hace prácticamente imposible que un agujero negro astrofísico pueda tener $Q/M  >  10^{-18}$, quedando lejísimos de ser extremal.  

Hay que señalar que la estructura causal del agujero negro extremal de Reissner-Nordström es completamente distinta de la del caso $ M>2\left| Q\right| $, da igual lo cerca que se esté del caso extremal. Esto sugiere que las propiedades físicas de estas soluciones pueden tener discontinuidades en $M=2\left| Q\right| $, con lo que el estudio del agujero negro extremo no puede hacerse tomando el caso no extremo y luego haciendo el límite $M\rightarrow 2\left| Q\right| .$


Generalizaciones de la solución de Reissner-Nordstrom


En primer lugar, hay que señalar que la teoría que estamos considerando aquí, la de Einstein-Maxwell, permite soluciones de tipo agujero negro, no sólo con cargas eléctricas, sino también magnéticas, dando lugar a lo que se llaman agujeros negros diónicos de Reissner-Nordström. Una forma de obtenerlos es partir de la solución de Reissner-Nordstrom y hacer uso de una dualidad, denominada dualidad S, que tiene la teoría [Ortin2015].

Pero si, además, añadimos a la acción de Einstein-Maxwell la acción de un campo escalar $\phi$ con potencial plano (como ocurre genéricamente en teoría de cuerdas si no están los moduli estabilizados) y dejamos que el acoplo gauge $g(\phi)$ dependa de este campo escalar,
$ S_{EM\phi}\left[ G,A\right] =\frac 1{16\pi G_4^N}\int dx^4\sqrt{G}R\left[ G\right] +\int d^4x\sqrt{G}\left[ -\frac 14F_{\mu \nu }F^{\mu \nu }+2\vert d\phi\vert^2\right] $
entonces se pueden obtener más soluciones de tipo agujero negro que generalizan a los agujeros de Reissner-Nordstrom diónicos. En efecto, el hecho de que el campo escalar tenga un potencial plano hace que cada valor asintótico posible $\phi_\infty$ que puede tomar este campo escalar asintóticamente en el infinito determine un vacío distinto de la teoría efectiva. Al conjunto de todos estos vacíos se le denomina espacio de moduli de la teoría. Típicamente es una variedad parametrizada por todos los campos escalares con potencial plano donde hay definida una métrica que se obtiene del término cinético de la acción de estos campos escalares. En el caso sencillo que estamos considerando, con sólo un campo escalar, la métrica es un tensor 1x1 cuya única componente asignamos el valor 1. Al ser el valor de este potencial plano cero, entonces podemos estudiar cuáles son las soluciones de tipo agujero negro de esta teoría que asintóticamente tienen en el infinito al espacio de Minkowski con un valor del campo escalar concreto $\phi_\infty$, y así es como pueden obtenerse soluciones de tipo agujero negro que son generalizaciones de los agujeros negros diónicos que han sido estudiados extensivamente en la literatura.

Un ejemplo más complicado puede verse en los agujeros negros de mi tesis doctoral, que son soluciones de la teoría efectiva que surge de compactificar la teoría de cuerdas tipo IIB con una variedad de tipo Calabi-Yau, en donde los campos escalares, que parametrizan la estructura compleja del Calabi-Yau, cambian a medida que nos acercamos al agujero negro. Si se analizan estas soluciones, se puede ver que en el caso no extremal el valor de los moduli $\phi_h$ en el horizonte va a depender de los valores $\phi_\infty$ fijados en el infinito. Pero en el caso extremal lo que se encuentra siempre es que los valores $\phi_h$ de los moduli en el horizonte están completamente determinados por las cargas $Q$ y $P$ (eléctricas y magnéticas) del agujero negro y son independientes de los valores asintóticos $\phi_\infty$. El punto correspondiente del espacio de moduli $\phi_h=\phi(P,Q)$ se denomina punto del atractor.

En todas las esquinas de la teoría de cuerdas donde tenemos control la dependencia del acoplo gauge con los campos escalares es de tipo exponencial. Así, en este ejemplo sencillo de un solo campo escalar tomaremos $g=e^{-a\phi}$, donde $a$ es una constante positiva. Como el acoplo gauge $g(\phi)\rightarrow 0$ cuando $\phi\rightarrow \infty$, la región asistótica en el espacio de moduli es una región de acoplo gauge débil, en la que la simetría local que genera la interacción gauge se convierte en una simetría global. Puede demostrarse que en este caso sencillo [Garfinkle:1990qj,Draper:2019utz] la métrica de la solución no extremal para un agujero negro con carga $Q$ y masa $M$ es:

$ ds^2=-fdt^2+f^{-1}dr^2+r^2R^2d\Omega_2^2 $

donde

$ f=\left(1-\frac{r_+}{r}\right)\left(1-\frac{r_-}{r}\right)^{\frac{1-a^2}{1+a^2}},\quad R= \left(1-\frac{r_-}{r}\right)^{\frac{a^2}{1+a^2}},$

y $r_-,r_+$ son las posiciones del horizonte interno y externo respectivamente, que vienen dadas como función de $Q,M$. El campo escalar y el campo gauge varían con la distancia al horizonte de sucesos de la siguiente manera

$ phi=\phi_\infty-\frac{1}{a}\log R,\quad F_{tr}=\frac{4G_4^Ne^{+a(\phi-\phi_\infty)}Q}{r^2}$


El caso extremal corresponde con $r_h\equiv r_-=r_+$, lo que ocurre cuando $r_h=(1+a^2)G_4^NM=\sqrt{1+a^2}G_4^NQe^{+a\phi_\infty}$ e implica que $f=R^{2/a^2}$. Como $R(r\rightarrow r_h)\rightarrow 0$, $\phi$ diverge en el horizonte (volviéndose así independiente de $\phi_infty$), el acoplo gauge tiende a cero en el horizonte y el área del horizonte $A=r_h^2 R(r_h)^2$ también se hace arbitrariamente pequeña. Por eso a este tipo de soluciones se les denomina agujeros negros pequeños [Sen199,Sen1994]. Es importante señalar que la existencia teórica de estos agujeros negros pequeños es independiente de cual sea la función $g(\phi)$ siempre que ésta cumpla condición de tender a cero cuando $\phi$ tiende a infinito [Hamada2021]. Como veremos en un post posterior, los agujeros negros pequeños, aunque ausentes en astrofísica, juegan un papel muy importante en el estudio de las consecuencias que tiene la gravedad cuántica sobre la física de baja energía.



La solución de Kerr-Newman


La solución de Kerr-Newman es una familia de soluciones estacionarias de la acción de Einstein-Maxwell (sin campo escalar o con campo escalar constante) con tres parámetros $M$, $Q$ y $a$:
$ ds^2=-\left[1-\frac{2MrG_4^N-4q^2\left(G_4^N\right)^2}{\Sigma}\right]dt^2+2G_4^Na\frac{\left[2MrG_4^N-4q^2\left(G_4^N\right)^2\right]sen^2\theta}{\Sigma}dtd\phi-$
$-\frac{\Sigma}{\Delta}dr^2+\Sigma d\theta^2-\frac{\Gamma}{\Sigma}d\phi^2 $
$A_{\mu}=\frac{4G_4^NQr}{\Sigma}\left[\delta_{\mu t}-\delta_{\mu\phi}aG_4^Nsen^2\theta\right] $
donde
$\Sigma=r^2+a^2cos^2\theta \left(G_4^N\right)^2 $
$\Delta=r^2-2MrG_4^N+4Q^2\left(G_4^N\right)^2+a^2\left(G_4^N\right)^2 $
$\Gamma=\Sigma\left[r^2+a^2\left(G_4^N\right)^2\right]+\left[2MrG_4^N-4Q^2\left(G_4^N\right)^2\right]a^2\left(G_4^N\right)^2sen^2\theta $
Esta solución tiene las siguientes propiedades:
  • Su masa ADM es $M$
  • Su momento angular de rotación ADM es $J=aMG_4^N $
  • Está cargada eléctricamente con carga $Q$ respecto del campo gauge. La rotación hace que la solución también tenga momento dipolar magnético.
  • Presenta una singularidad en los puntos donde $r^2+a^2\left(G_4^N\right)cos^2\theta=0$, denominada singularidad de anillo.
  • Si $M^2\geq 4Q^2+a^2$ la solución describe un agujero negro con horizonte en $r=r_{+}=G_4^NM+G_4^N\sqrt{M^2-4Q^2-a^2}$ y un horizonte interior en $r=r_{-}=G_4^NM-G_4^N\sqrt{M^2-4Q^2-a^2}$.
  • Si $M^2< 4Q^2+a^2$, no hay agujero negro y la singularidad está desnuda.

El colapso gravitatorio y el significado físico del tamaño gravitacional


Consideremos la extensión de Kruskal de la solución de Schwarzschild. Se trata de una solución de las ecuaciones de Einstein en el vacío, con lo que representa una posible estructura del espacio-tiempo en
relatividad general. Pero no hay ningún motivo para pensar que haya alguna región del universo que corresponda a esta solución extendida, ya que harían falta dos regiones asintóticamente planas junto con una singularidad en la región IV que las conectara en el pasado.

Penrose diagram for the Kruskal extension of Schwarzschild spacetime. The angular coordinates θ, φ are suppressed so that each point of the diagram can be thought of as representing a 2-sphere of radius r.

No obstante, sí que puede generarse parte de esta solución partiendo de una configuración físicamente razonable. Supongamos un cuerpo esférico de masa $M$ y de radio $R>2G_4^NM$. El campo gravitatorio en esta configuración viene dado por la solución de Schwarzschild en el exterior $r>R$ y por la denominada solución interior de Schwarzschild en $r<R$ [Wald1984], una solución esféricamente simétrica de las ecuaciones de Einstein con materia y sin horizonte. Debido a que se tiene la solución de Schwarzschild sólo en $r>R>R_S=2G_4^NM$, esta configuración no es un agujero negro. Pero Oppenheimer y Snyder en 1939 demostraron que es posible que, en ciertas condiciones, el cuerpo sufra una disminución de su radio de forma que se llegue a que $R$ se haga menor que $2G_4^NM$ y que este proceso puede ocurrir para cualquier densidad, siempre que la masa del objeto que colapsa sea lo suficientemente grande. Consideremos entonces un partícula de la superficie del cuerpo cuando $R$ está ya muy cerca de $2G_4^NM$. Sobre ella actúan diversas fuerzas debido a la interacción con otras partículas del cuerpo y también lo que podemos llamar la fuerza gravitatoria (en el molusco de referencia hecho por relojes imaginarios situados cada uno en una posición $r$ constante) . Como el campo gravitatorio en la posición de la partícula, que viene dado por la solución de Schwarzschild, es muy intenso en ese molusco de referencia al estar la partícula muy cerca de $r=2G_4^NM$, todas las fuerzas sobre la partícula son despreciables frente a la gravitatoria [Landau]. Por tanto, la trayectoria de la partícula, que representa el movimiento de la superficie del cuerpo macroscópico, será aproximadamente una geodésica de la solución de Schwarzschild. Como hemos comentado anteriormente, el estudio de esta geodésica revela que, en un tiempo propio finito de la partícula, ésta llegará a la posición $r=0$ sin haber notado nada especial al pasar por $r=2G_4^NM$. Por tanto, en un tiempo propio finito para un observador que se encuentre en la superficie del cuerpo, el cuerpo colapsará. Como Schwarzschild es la única solución esféricamente simétrica de las ecuaciones de Einstein en el vacío, el colapso gravitatorio de este cuerpo esférico necesariamente producirá un agujero negro de Schwarzschild. Podemos decir, por tanto, que la existencia de agujeros negros es una condición necesaria que viene de la combinación del principio de equivalencia de la relatividad general con el principio de velocidad máxima de propagación de las interacciones.

Es necesario aclarar que, para que una distribución de materia pueda colapsar a un agujero negro, no es necesario que ésta tenga una alta densidad si es una distribución lo suficientemente grande. En efecto, la densidad es la masa entre el volumen y, como la masa de un agujero negro es proporcional a su radio, mientras que el volumen es proporcional al radio al cubo, lo que se obtiene es que la densidad de un objeto apunto de colapsar a un agujero negro decae como el inverso del radio al cuadrado. Es decir, cuanto mayor sea este objeto apunto de colapsar, menor es su densidad.

Lo que sí ocurre es que la existencia de agujeros negros nos garantiza que no podemos concentrar una masa dada en un volumen tan pequeño como queramos ya que, una vez nos acerquemos, disminuyendo el tamaño, a su radio de Schwarzschild, ésta colapsará a un agujero negro de ese tamaño. Ese es el significado físico que tiene el tamaño gravitacional de un objeto. La existencia de agujeros negros en relatividad general nos dice que todos los objetos en esta teoría tienen asociado, además de su tamaño, un tamaño gravitacional $R_S=2G^N_4M$, de tal forma que si su tamaño fuera comprimido hasta ese tamaño gravitacional, el objeto colapsaría a un agujero negro, objeto que no podemos decir que tenga asociado un volumen, pero sí un área $A=4\pi R_S^2$ asociada a su horizonte de sucesos.

La geometría del espacio-tiempo correspondiente a este proceso de colapso viene representada en la siguiente figura:


En ella no aparecen ni la región III ni la IV de la extensión de Kruskal, lo que nos sugiere que estas regiones no son físicamente realistas, como explican, en estos dos vídeos, David Pereñíguez y Gastón Giribet:
 
En el vídeo de Gastón se explica también que, aunque para un observador asintótico el astro tarda infinito tiempo en colapsar (y la materia que cae sobre éste también tarda infinito tiempo en atravesar el horizonte), y aunque para el que colapsa y/o cae ese tiempo es finito, el objeto que cae no puede recibir información de todo lo que ocurre en el futuro a los observadores que se quedan en la región asintótica ya que, cuando muere en la singularidad hay un último rayo de luz que le llega de la región asintótica y ya no recibirá más información de esta región.

En el caso del colapso gravitatorio de un cuerpo esféricamente simétrico cargado eléctricamente con $M>2\left| Q\right| $, que produce un agujero negro de Reissner-Nordström, al igual que ocurre en el caso anterior, hay regiones de la extensión de la solución de Reissner-Nordström que no se generan. No obstante, según cómo sea el cuerpo, el colapso terminará en una singularidad o el cuerpo dejará de
contraerse y empezará a expandirse en otra región asintótica del espacio-tiempo.

Vemos, por tanto, que el colapso esférico descrito anteriormente no es la única situación en la se predice la formación de una singularidad. De hecho, los teoremas de singularidad (bien resumidos en [Wald1984]) prueban que estas predicciones no son consecuencia de haber considerado situaciones con un alto grado de simetría, sino que son aspectos genéricos del colapso gravitatorio. Es decir, la relatividad general predice su propia ruptura. Aunque los teoremas de singularidad no prueban que las singularidades vayan necesariamente asociadas a curvaturas grandes, se espera, en general, que la descripción clásica de la gravitación que proporciona la relatividad general deje de ser válida cerca de las singularidades porque los efectos cuánticos jueguen un papel dominante.


Las Conjeturas de la Censura Cósmica


Si bien el estudio del colapso de un cuerpo esféricamente simétrico se simplifica bastante debido a teoremas como el de Birkhoff, el estudio del colapso no esférico es muy complicado. Una cuestión importante es saber si, en un colapso, en general no esférico, es posible que aparezcan singularidades desnudas. La evidencia más fuerte que se tiene de que esto no es posible viene del estudio de la evolución de perturbaciones lineales del colapso esférico, que siempre dan lugar a agujeros negros, en vez de singularidades desnudas. De aquí viene la conjetura, denominada de censura cósmica (en su formulación débil), de que, si se tiene un sistema aislado en una situación físicamente razonable, la naturaleza se las apaña para que, si se produce en la evolución de este sistema colapso gravitatorio, se llegue a una situación en la que todas las singularidades que se hayan formado no puedan ser vistas por un observador distante.

Una condición que se requiere para que la situación inicial sea físicamente razonable es que se cumpla la condición de energía dominante: que la velocidad de los flujos de energía asociados a la materia sea menor o igual que la de la luz. Si $t^\mu $ es un campo vectorial tipo tiempo dirigido hacia el futuro, esta condición puede expresarse matemáticamente diciendo que $-T_\nu ^\mu t^\nu $ es un campo
vectorial tipo tiempo dirigido hacia el futuro o es tipo nulo. Por ello, si $n^\mu $ es un campo vectorial que no es de tipo espacio, entonces:
$ T_\nu ^\mu t^\nu n_\mu \geq 0 $
Esta condición implica la denominada condición de energía débil, que establece que la densidad de energía de materia que mide cualquier observador, sea cual sea su movimiento, es no negativa.

Un argumento a favor de la formulación débil de la conjetura del censor cósmico es el teorema de positividad de la energía, que establece que la masa ADM de todo espacio-tiempo que sea solución de la ecuación de Einstein con un tensor energía-impulso que satisface la condición de energía dominante es no negativa y sólo se anula para el espacio-tiempo plano (bien explicado en [Ortin2015]. Pero la masa del espacio-tiempo contiene tanto la energía asociada al campo gravitatorio como la asociada a la materia y a todos los demás campos. En el colapso gravitatorio de un cuerpo, la energía gravitatoria de ligadura, que es siempre negativa, crece en valor absoluto. Si el proceso continua, llegaría un momento en el que la
energía gravitatoria se hiciera mayor en valor absoluto que la energía asociada a la materia y el resto de campos, con lo que se violaría el teorema de positividad de la energía. Por ello, lo que se espera es que,
antes de que se llegue a esta situación, aparezca un horizonte de sucesos.

Hay otra versión de la conjetura del censor cósmico, que fue la que formuló Penrose [Penrose] inicialmente, que se denomina conjetura de censura cósmica fuerte, ya que, en vez de aplicarse a observadores distantes en un espacio-tiempo asintóticamente plano, se aplica a cualquier observador en cualquier espacio tiempo. Esta versión afirma que, aparte de una posible singularidad inicial como la del big bang, ninguna singularidad es visible por ningún observador (el espacio tiempo debe ser globalmente hiperbólico).

Es importante señalar que la versión fuerte de la conjetura del censor cósmico no implica la débil. Podemos poner como contraejemplo cualquier situación en la que, en un espacio-tiempo asintóticamente plano, se forme una singularidad que se propaga por una geodésica nula hacia el exterior. Esto violaría la formulación débil, pero no la fuerte. Tampoco la débil implica la fuerte. Son conjeturas independientes.

En el colapso gravitatorio de un cuerpo esféricamente simétrico de masa $M>0$, que da lugar a la formación de un agujero negro de Schwarzschild, no se viola ninguna de las dos versiones dadas de la conjetura del censor cósmico: ya hemos dicho que un observador en el exterior del agujero negro
no puede ver la singularidad, y uno que cruce el horizonte tampoco, ya que ésta, al ser de tipo espacio, está siempre en su futuro. En cambio, en el agujero negro de Reissner-Nordström, que se forma en el colapso gravitatorio de un cuerpo esférico cargado de masa $M>2\left| Q\right| $, aunque se respeta la versión débil de la conjetura, se viola la fuerte: el hecho de que las singularidades sean de tipo tiempo permite en principio que un observador que haya entrado en el agujero negro las evite, emergiendo en una nueva región el espacio-tiempo asintóticamente plana, de forma que, a lo largo de este viaje, este observador ha podido ver las singularidades. Por eso la versión original de la conjetura de censor cósmico, que era la fuerte, tuvo que ser suavizada para dar lugar a la versión débil. No obstante, si, como resultado de la perturbación que supone el observador, el horizonte interior $r=r_{-}$ se convirtiera en una singularidad de tipo espacio, entonces se salvaría la conjetura fuerte. Es decir, la conjetura de censura cósmica fuerte implica que los horizontes interiores, que, como hemos indicado anteriormente, exponen situaciones en las que las ecuaciones de Einstein no tienen una solución única (en su lugar, tienen muchas), también se evitan, porque son inestables. Siempre que se añadan a estas soluciones alguna perturbación que involucre materia que cumpla con condiciones energéticas razonables, la perturbación crecería exponencialmente y, una vez que llegue a ese horizonte, el espacio-tiempo se volvería singular. Es decir, en las situaciones físicamente realistas el horizonte interior debe ser sustituido por una singularidad

Nótese que ambas conjeturas, la fuerte y la débil, implican que el espacio-tiempo no puede extenderse suavemente mediante las ecuaciones de Einstein en algunas situaciones, y esto lo hacen para que ningún observador pueda obtener datos de las singularidades sin acabar en ellas, para que no pueda obtener ninguna información de aquellas situaciones en las que la relatividad general falla. Sin embargo, no hay ningún motivo para pensar que la relatividad general tenga que protegerse a sí misma frente a lo que miden los observadores de esa manera. Después de todo, sólo se trata de una teoría efectiva, aproximada, a baja energía. Cuando el espacio-tiempo se vuelve singular o se acerca a las condiciones de los horizontes interiores, nuevos términos y nuevos grados de libertad pueden perfectamente entrar en juego y cambiar completamente lo que ocurre para que sea consistente sin que sean necesarias las conjeturas de censura cósmica fuerte ni débil.

En el caso de la débil, hablaremos de ella más adelante en otro post, pero en el caso de la fuerte ya tenemos claro que no es cierta. Se ha demostrado [DefermosLuk] que si realmente perturbas un poco las condiciones iniciales todavía es posible extrapolar el espaciotiempo (es decir, todavía existe localmente una solución de las ecuaciones de Einstein) un entorno finito más allá del horizonte interior del agujero negro. Al contrario de lo que dice la conjetura de la censura cósmica fuerte, el espaciotiempo puede continuar en uno que tiene que incluir una singularidad de tipo luz, en vez de de tipo espacio, así que un observador que cayera al agujero negro en principio sí podría medir información que viene de la singularidad antes de morir y la relatividad general no es capaz de proporcionar predicciones únicas para esas mediciones. Pero una teoría más completa puede producir mediciones únicas. Es sí, si la conjetura de censura cósmica débil es cierta, esas singularidades no pueden transmitir su información al observador asintótico que observa el agujero negro desde fuera de éste. 


La ley de máxima tensión

El hecho de que los objetos en relatividad general tengan asociado un tamaño gravitacional tal que, si el objeto se pudiera comprimir hasta ese tamaño, colapsaría para formar un agujero negro tiene también otra consecuenca sorprendente. Para verlo, consideremos dos objetos de masas \(M_1\) y \(M_2\) separados por una distancia \(D\). La fuerza gravitacional entre ellos es, aproximadamente,

$ F = \frac{G M_1 M_2}{D^2} = \left(\frac{GM_1}{c^2D}\right) \left(\frac{GM_2}{c^2D}\right) \frac{c^4}{G}. $

Sin embargo, \(M_1 M_2\) no puede exceder \(\frac{1}{4} (M_1 + M_2)^2\) y, por lo tanto,

$ F \leq \left(\frac{G(M_1 + M_2)}{c^2 D}\right)^2 \frac{c^4}{4G}. $

Para asegurarnos de que se trata de dos objetos separados, y no de un agujero negro, se tiene que cumplir que $G( M_1 + M_2) < c^2 D$. Por tanto, la tensión o fuerza entre dos cuerpos no puede exceder el valor

$F_g = \frac{c^4}{4G} \approx 3.025 \times 10^{43} $ Newtons.

Cada vez que intentamos superar este límite de fuerza, aparecen horizontes de sucesos que nos lo impiden.
 
Análogamente, hay una máxima potencia que se puede ejercer, de valor:

$P_g = \frac{c^5}{4G} \approx 9.1 \times 10^{51} $ W.

Y un valor máximo para la tasa de cambio de masa de un objeto:

$\frac{dM}{dt} = \frac{c^3}{4G} \approx 1.0009 \times 10^{35}  $ kg/s.

 

 

Los Teoremas de Unicidad


El estudio de la evolución con el tiempo de perturbaciones en los agujeros negros de Schwarzschild, Reissner-Nordström (y sus generalizaciones) y Kerr-Newman muestra que, en todos los casos, las perturbaciones decaen de forma que los momentos multipolares más altos del campo gravitatorio y el campo gauge, y todos los de cualquier campo escalar que pudiera haber, son radiados hacia el exterior, con lo que la situación final estacionaria es uno de los agujeros negros descritos anteriormente. De hecho, este resultado no es una propiedad particular de pequeñas perturbaciones. Se tienen los denominados teoremas de unicidad, que pueden resumirse en que no hay agujeros negros estacionarios con momentos de campos escalares (ausencia de ''pelo'' escalar) y, además, el único agujero negro estacionario con
  • $M$ distinta de cero, $Q=0,$ $J=0$ y el resto de campos triviales es el de Schwarzschild.
  • $M$ distinta de cero, $Q=0,$ $J$ distinto de cero, y el resto de campos triviales es el de Kerr, que es la solución de Kerr-Newman en la que $Q=0$.
  • $M$ distinta de cero, $Q$ distinta de cero, $J=0$ y el resto de campos triviales es el de Reissner-Nordström.
  • $M,$ $Q$, y $J$ distintos de cero y el resto de campos triviales, es el de Kerr-Newman.
Nótese, sin embargo, que estos teoremas no implican que no puedan existir soluciones estacionarias con momentos prohibidos, como, por ejemplo, momento dipolar eléctrico o pelo escalar, sino que estas soluciones, de existir, no tienen horizonte de sucesos que cubra la singularidad. Por ello, de existir, no se espera que representen situaciones físicamente aceptables al violar la conjetura del censor cósmico en su versión débil. Asímismo, estos teoremas tampoco prohíben situaciones no estacionarias de tipo agujero negro con pelo escalar. No obstante, se espera que el proceso de colapso gravitatorio de cualquier cuerpo alcance al final una situación estacionaria. Esto da lugar a la denominada conjetura
de ausencia de pelo
: sea cual sea el cuerpo que colapsa, el agujero negro al que da lugar tiene unas características que sólo dependen de su masa, sus cargas (conservadas localmente) y su momento angular.

Las leyes Clásicas de los Agujeros Negros


Acabamos de ver que el estado de un agujero negro estacionario en relatividad general viene descrito por sólo un conjunto reducido de parámetros como son $M$, $Q$ y $J$. Esto es análogo a lo que ocurre en termodinámica, donde el estado macroscópico de un sistema viene dado, si éste está en equilibrio, por un conjunto reducido de parámetros externos, por ejemplo, la energía interna $E$ y el volumen $V$. Esta analogía es manifiesta si tenemos en cuenta las siguientes leyes sobre agujeros negros, deducidas en el contexto clásico de la relatividad general [Wald1984]:
  • (Ley cero) Para todo agujero negro estacionario puede verse que existe un campo vectorial de Killing $\chi^{\mu}$ que es normal al horizonte. Al ser el horizonte nulo, entonces $\chi_{\mu}\chi^{\mu}=0$ en el horizonte. De aquí puede deducirse que la cantidad $\kappa^2=-\frac{1}{2}\left(\nabla^{\mu}\chi^{\nu}\right)\left(\nabla_{\mu}\chi_{\nu}\right)$ denominada gravedad de superficie es constante en todo el horizonte.
  • (Primera ley) El campo vectorial de Killing $\chi^{\mu}$ no coincide en general con el Killing temporal $\xi^{\mu}$, de forma que se define la velocidad angular del horizonte $\Omega_H$ como $\chi^{\mu}=\xi^{\mu}+\Omega_H\psi^{\mu} $, donde $\psi^{\mu}$ es el Killing axial, normalizado para que sus órbitas cerradas tengan periodo $2\pi$. $\xi^{\mu}$ se normaliza, al igual que $\chi^{\mu}$, para que $\xi^{\mu}\xi_{\mu}=-1$ en el infinito. Si sobre este agujero negro estacionario realizamos una pequeña perturbación con simetría axial, entonces puede demostrarse que la masa cambia en: $\delta M=\frac{\kappa}{8\pi G_4^N}\delta A + \Omega_H\delta J+ \phi_H\delta q$, donde $A$ es el área del horizonte y $\phi_H$ es el potencial electrostático $A^0$ en el horizonte, que se obtiene al pasar a un sistema de referencia que rota con el horizonte.
  • (Segunda ley) El teorema del área de los agujeros negros establece que, dada una solución de tipo agujero negro que verifique que $R_{\mu\nu}k^{\mu}k^{\nu}\geq0 $ (lo que se cumple para toda solución de las ecuaciones de Einstein con materia en la que la materia verifique la condición de energía dominante) el área del horizonte nunca decrece. Así, si se tiene inicialmente un agujero negro en situación estacionaria y se realiza una cierta perturbación, la nueva situación estacionaria a la que el sistema evoluciona tiene un área del horizonte igual o mayor al de la situación inicial.
  • (Tercera ley) Es imposible llegar, mediante una sucesión finita de procesos físicos, a la situación en la que $\kappa=0$.
Nótese, además, que las cantidades $\kappa$, $\phi_H$ y $\Omega_H$ sólo están definidas en el caso de agujeros negros estacionarios, de la misma forma que la temperatura $T$ o la presión $P$ sólo están definidos en sistemas termodinámicos en equilibrio. En cambio, $A$ puede definirse en cualquier agujero negro estacionario o no, de la misma forma que la entropía se puede definir también para sistemas termodinámicos que no están en equilibrio.

De todo esto, tenemos la correspondencia:
$A\sim S $
$\kappa\sim T $
entre las magnitudes que caracterizan el estado de un agujero negro y las que caracterizan el estado de macroscópico de un sistema termodinámico. Pero, clásicamente, se trata sólo de una analogía formal. $\kappa$ no puede ser proporcional a la temperatura física del agujero negro, ya que clásicamente es imposible que un agujero negro esté en equilibrio térmico (o termoquímico) con un sistema de partículas o radiación como consecuencia de que nada puede escapar del agujero negro, mientras que sí que pueden entrar partículas en su interior. Pero el mundo no es clásico, sino cuántico, así que...
 
Continuará en un próximo artículo.
 
 
Sobre el autor: Sergio Montañez Naz es doctor en física teórica y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.
 
 

 Referencias bibliográficas

  • Dafermos and J. Luk J. (2017) The interior of dynamical vacuum black holes I: The C0-stability of the Kerr Cauchy horizon. preprint, 2017, arXiv:1710.01722
  • Draper and S.~Farkas S. (2019) "Transplanckian Censorship and the Local Swampland Distance Conjecture,'' JHEP 01 (2020), 133 doi:10.1007/JHEP01(2020)133 [arXiv:1910.04804 [hep-th]].
  • Garfinkle D., Horowitz G. T., Strominger A. (1992), "Charged Black Holes in String Theroy", Phys. Rev. D, 1991, 43, 3140, doi:10.1103/PhysRevD.43.3140, [Erratum: Phys.Rev.D 45, 3888 (1992)]. 
  • Gibbons G.W.(2002), The Maximum tension principle in general relativity,'' Found. Phys. 32 (2002), 1891-1901. doi:10.1023/A:1022370717626 [arXiv:hep-th/0210109 [hep-th]]. 
  • Hamada Y. and Vafa C. (2021), 8D Supergravity, Reconstruction of Internal Geometry and the
    Swampland, JHEP 06 (2021) 178, [2104.05724].
  • Landau, L. D. and Lifshitz, E. M. (1992). "Teoría Clásica de los Campos". Volumen 2 del Curso de Física Teórica. Reverté. Primera edición. Barcelona.
  • Lüst D, Vleeshouwers W (2018), "Black Hole Information and Thermodynamics" (arXiv:1809.01403)
  • Ortín T. Gravity and Strings, Cambridge University Press, 2015, ISBN 978-0-521-76813-9, 978-0-521-76813-9, 978-1-316-23579-9 doi:10.1017/CBO9781139019750.
  • Penrose, R. (1979). "Singularities and Time Asymmetry". En Hawking, S.W., Israel, W.: "General Relativity", 581-638.
  • Sen A. (1995), Extremal black holes and elementary string states, Mod. Phys. Lett. A 10 (1995)
    2081{2094, [hep-th/9504147].
  • Sen A. (1994), Black hole solutions in heterotic string theory on a torus, Nucl. Phys. B 440 (1995)
    421{440, [hep-th/9411187].
  • Wald R.M. (1984), General Relativity, Chicago Univ. Pr., 1984, doi:10.7208/chicago/9780226870373.001.0001

6 sept 2023

Si rompiendo núcleos de átomos obtenemos energía, ¿por qué uniéndolos también?

Conocemos como energía nuclear al uso de reacciones nucleares que liberan energía para generar calor. Básicamente, existen dos formas de liberar energía a partir de los núcleos de los átomos:

  • la fisión nuclear, que es una reacción nuclear o un proceso de desintegración radioactiva en el que el núcleo de un átomo se divide en partes más pequeñas (núcleos más ligeros). Esta energía liberada es la que se usa con frecuencia en turbinas de vapor para producir electricidad en las centrales nucleares.
Dominio público, https://commons.wikimedia.org/w/index.php?curid=486924
  • la fusión nuclear, que es una reacción en la que dos núcleos atómicos se fusionan para formar un núcleo más pesado. Los reactores de fusión nuclear aún no son económicamente viables, pero esta tecnología se encuentra actualmente en investigación y podría ser viable en algunas décadas.
Deuterium-tritium fusion.svg
Por Wykis - Trabajo propio, basado en w:File:D-t-fusion.png, Dominio público, https://commons.wikimedia.org/w/index.php?curid=2069575

Si dividir un núcleo en dos núcleos más pequeños libera energía, parecería que combinar dos núcleos más pequeños en un núcleo más grande requeriría energía, no liberarla, porque es el proceso inverso. Con la fisión nuclear obtenemos energía en las centrales nucleares rompiendo núcleos. Con la fusión, obtenemos energía uniéndolos, que es lo contrario. Pero el inverso de un proceso exotérmico es un proceso endotérmico, no obtienes energía, la pierdes. Acabamos de experimentar lo que se denomina un conflicto cognitivo


¿Cómo es esto posible? Eso es lo que vamos a intentar explicar en este post a un nivel de bachillerato.

12 jul 2023

No es verdad que los físicos restemos infinito a infinito


"A los físicos, mientras funcione, llámale lo que quieras. ¿Delta de Dirac como función? Dale. ¿El cálculo te da infinito? Pues réstale infinito y ya". Es posible que hayas oído o leído en Twitter algún comentario parecido a éste.



De alguna manera se ha instalado en el imaginario colectivo que la física es como el "lado oscuro" de las ciencias exactas y que los métodos poco rigurosos que practicamos los físicos pervierten a los jóvenes desviándolos del camino correcto, el de la matemática pura e inmaculada.


Sin embargo, como ya he explicado en otro post, las matemáticas no sólo tienen las dos caras de las que tradicionalmente nos han hablado, el álgebra y la geometría, sino que los conceptos matemáticos tienen también típicamente un significado físico (en modelos que se pueden aplicar a nuestro universo o no) que no se debe ignorar ni cuando aprendemos matemáticas ni cuando hacemos investigación puntera en matemática moderna. Mucho más que el rigor, es la interacción entre álgebra, geometría y física la que da a las matemáticas toda la potencia que tienen, y esto ha sido así ya desde tiempos de Descartes y Fermat. Pero es que, además, hay veces en las que se acusa a los físicos de ser demasiado poco rigurosos injustamente. Un ejemplo de esto es lo que ocurre con la renormalización en teorías efectivas.



Para ilustrarlo sin tener que irme a la teoría cuántica de campos, disciplina que muy pocos físicos, entre los que yo no estoy, dominan realmente, voy a poner un ejemplo de mecánica cuántica básica que se estudia en el grado de Física. Supongamos una partícula cuántica que se mueve en un mundo de dos dimensiones. Vamos a denotar su posición en coordenadas polares como $(r,\phi)$. Supongamos que esta partícula está sometida a un pozo de energía potencial que toma un valor constante negativo $-U_0$ dentro del círculo $r<a$, pero que se anula si $r>a$.

En ese caso, la mecánica cuántica nos dice que, si la energía $E$ de la partícula es positiva, entonces esta energía no está cuantizada, sino que puede tomar cualquier valor real positivo y la partícula se va a poder mover por todo el plano. Pero, si $E<0$, entonces sólo están permitidos algunos valores discretos concretos de la energía, que se corresponden con estados ligados de la partícula en los que la función de onda de la partícula sólo toma valores no despreciables dentro del círculo o, si es fuera, cerca de éste, ya que para $r>a$ la función de onda decae como una exponencial a medida que nos alejamos del círculo.
Supongamos, además, que $a$ es muy pequeño comparado con las distancias que somos capaces de medir. Se puede demostrar entonces [LSS2005] que, al ser $a$ pequeño, incluso aunque la profundidad del pozo $U_0$ sea muy pequeña, siempre va a haber algún estado ligado, algún estado con energía $E<0$. Cuando la cantidad adimensional
$\tilde{g}= \frac{ m \pi U_0 a^2}{\hbar^2}$
es mucho más pequeña que uno, el estado fundamental tiene aproximadamente una energía
$E_0=-\frac{\hbar^2}{2ma^2} \exp \left(  -\frac{2\hbar^2}{mU_0a^2}  \right)$
Como $\tilde{g}<1$, se tiene que $| E_0 |<\frac{\hbar^2}{2ma^2}$, y no hay estados excitados (en cuando excitamos a la partícula para que vaya a un nivel más alto que el fundamental ésta ya tendría energía positiva y escaparía del pozo).

Pero, ¿qué pasa si no somos capaces de explorar distancias tan pequeñas como $a$, que es lo que nos pasa ahora mismo con los aceleradores de partículas actuales? En ese caso, al hacer física, no vamos a poder describir la energía potencial a la que está sometida la partícula mediante ninguna función que describa la forma microscópica que tiene el pozo. En este mundo de juguete que estoy tomando como ejemplo los físicos sabemos, porque lo medimos experimentalmente, que la partícula tiene un estado ligado con energía negativa $E_0$ (un número que nos dan los experimentos). Pero no sabemos si el potencial al que está sometida la partícula es cuadrado o si tiene otra forma. No tenemos ningún indicio de que el pozo tenga grosor, así que se nos puede ocurrir describir este pozo mediante una delta de Dirac, que es una distribución matemática infinitamente estrecha. En efecto, como la delta de Dirac se puede definir como el límite, cuando $a \to 0$ de una función que vale $\frac{1}{\pi a^2}$ dentro del círculo, y que se anula fuera, el potencial al que está sometida la partícula se puede aproximar, siempre que no exploremos distancias más pequeñas o del orden de $a$ , por
$U(r,\phi)\simeq -\frac{\hbar^2\tilde{g}}{2 \pi r m}\delta(r)$ 

Sin embargo, si nos da por tratar de resolver la ecuación de Schrödinger independiente del tiempo para la partícula sometida a ese potencial tipo delta de Dirac
$\left( \frac{\hbar^2}{2m} \nabla^2 -\frac{\hbar^2 \tilde{g}}{2 \pi r m}\delta(r) \right) \psi(r,\phi)=E \psi(r,\phi) $
al pasar al espacio de momentos
$ \frac{p^2}{2m} \tilde{\psi}(p) -\frac{\pi a^2 U_0}{2 \pi }\psi(r=0)=E \tilde{\psi}(p)$
se obtiene una ecuación inconsistente a no ser que
$\frac{1}{\tilde{g}}=\frac{1}{2\pi m} \int_0^\infty dp \frac{p}{\frac{p^2}{2m}-E_0} $
ecuación que no se puede cumplir porque la integral es divergente.

Repito lo que está ocurriendo. Los físicos hemos hecho un modelo para explicar el comportamiento de una partícula que sabemos que tiene un estado ligado en un pozo que ni siquiera sabemos si tiene anchura. Este modelo consiste un un potencial de tipo delta de Dirac. Sin embargo, haciendo cálculos para que el modelo sea consistente, nos sale que el parámetro que tiene el modelo, el factor $ \frac{1}{\tilde{g}} $, diverge, se hace infinito. Tenemos un problema bastante grande, ¿verdad?


Pues bien, un problema parecido lo tienen de forma rutinaria todos los físicos y las físicas de partículas. Éstos trabajan siempre con teorías cuánticas de campos, que son teorías cuánticas en los que hay uno o varios osciladores (bosónicos y/o fermiónicos) en cada punto del espacio y acoplados entre ellos. Y resulta que, incluso en la teorías cuánticas de campos más simples, casi cualquier cálculo que se haga que tenga en cuenta efectos cuánticos da como resultado una integral en cantidades de movimiento que diverge. Y, ¿qué es lo que hacen estas señoras y estos señores para resolverlo? ¿Le restan a $1/\tilde{g}$, que sale infinito, otro infinito para que salga un resultado finito como critican algunas personas que han estudiado poca física? No. Lo que hacen es darse cuenta de que, al poner los límites de la integral en la cantidad de movimiento entre cero e infinito, se han ido más allá del rango de validez de su modelo. No podemos considerar en nuestro modelo momentos demasiado grandes, porque eso significaría, por la mecánica cuántica, que estamos explorando distancias $h/p$ mas pequeñas que $a$, y para esas distancias ya se nota que el potencial que hay realmente no era una delta de Dirac. Pero, claro, ni saben lo que vale la anchura $a$ ni saben qué forma tiene el pozo. Así que, para evitar hacerlo mal, los físicos y las físicas de partículas ponen a mano un valor máximo, un cut-off en el momento. Es decir, en vez de integrar hasta infinito, integran hasta un valor máximo
$p_{m}<h/a$,
En realidad, todas las teorías cuánticas de campos de interés en física son realmente teorías efectivas, aproximaciones a baja energía de una teoría más completa, con lo que es necesario establecer un cut-off en el momento en todas ellas. Incluso en las teorías cuánticas de campos libres (en las que los campos no interaccionan entra sí), que son las más sencillas que hay, tenemos un oscilador en cada punto del espacio. Estrictamente dentro de esa teoría cuántica de campos podemos excitar este grado de libertad a energías arbitrariamente altas. Pero no nos podemos olvidar de que toda la materia y energía del universo está sometida a la interacción gravitatoria y, una vez que tenemos en cuenta la gravedad, seguro que esa teoría cuántica de campos deja de ser una descripción válida en alguna escala en la cantidad de movimiento antes de llegar a la escala de Planck, porque cuando se concentra suficiente densidad de energía en una región pequeña del espacio, ésta colapsará para formar un agujero negro, con lo que no es posible excitar esos osciladores a energías tan altas como se quiera sin salirnos de la teoría cuántica de campos. Como muy tarde, a la escala de Planck la teoría cuántica de campos tiene que dejar sí o sí de ser una buena aproximación al comportamiento de la naturaleza.

En el modelo de juguete de mecánica cuántica de una partícula que nos atañe, al introducir el cut-off $p_m$ en el momento se obtiene
$ \frac{1}{\tilde{g}}=\frac{1}{2\pi } \left[ \log \left( \frac{p_m^2/(2m)}{|E_0|}+1 \right) \right]$
En esta ecuación se puede ver que, para no salirnos del régimen de $\tilde{g}<<1$ en el que estamos trabajando y, a la vez, poder ver el estado ligado de energía negativa $E_0$ con nuestra teoría efectiva de bajo momento, el cut-off $p_m$ en el momento tiene que cumplir:
$|E_0|<\frac{p_m^2}{2m}<\frac{\hbar^2}{2ma^2}$
con lo que podemos escribir la siguiente expresión para el parámetro de nuestro modelo efectivo
$ \frac{1}{\tilde{g}}=\frac{1}{2\pi } \log \left( \frac{p_m^2/(2m)}{|E_0|} \right) $
Pero, claro está, el valor concreto del cut-off $p_m$ es arbitrario, lo hemos introducido a mano. ¿Eso es ser poco riguroso? No. Podemos definir nuestra teoría efectiva (la teoría en la que la partícula interacciona con la delta de Dirac en este caso) para cualquier cut-off que esté en el intervalo anterior y hemos cogido un valor dentro de ese intervalo. Eso se puede hacer.

Pero, ¿qué hacemos ahora? ¿Mandamos el cut-off a infinito y, al mismo tiempo, $\frac{1}{ \tilde{g} }$ también a infinito de tal manera que $|E_0|$ se mantenga finito e igual a la cantidad que se mide experimentalmente? Aunque muchos físicos de partículas abusan del lenguaje y dicen que, al renormalizar una teoría, es esto lo que hacen, en realidad lo que están haciendo es darse cuenta de que $p_m$ y $\tilde{g}$ no son cantidades que existen en la naturaleza. Son magnitudes inventadas por nosotros. Las hemos creado para poder construir la teoría efectiva (ya que la forma concreta del potencial que hay en la naturaleza a nivel microscópico, que es un potencial cuadrado en este caso, es desconocida). La teoría o modelo efectivo que nos hemos inventado consiste en un potencial delta de Dirac. $\tilde{g}$ nos da el acoplo de la partícula con una delta de Dirac que no existe, y $p_m$ el momento máximo que puedo considerar en esa teoría efectiva sin que ésta deje de ser una buena aproximación a la realidad.

Como $\tilde{g}$ y $p_m$ son magnitudes que no existen, les puedo dar el valor que quiera dentro de los rangos descritos arriba, pero no de cualquier forma. Sus valores tienen que estar relacionados mediante la última ecuación que hemos puesto, ecuación que nos dice cómo corre el acoplo $ \tilde{g} $ a medida que vamos aumentando $p_m$. Lo que creíamos que son constantes de la naturaleza, en realidad dependen de la escala de distancias a las cuales se está explorando la naturaleza. A esta variación del acoplo con la escala de distancia, es decir, momento (o energía), con la que estamos trabajando se denomina flujo del grupo de renormalización, y es una característica propia que tienen las teorías efectivas, desde el modelo de juguete que acabamos de describir hasta el mismo Modelo Estándar de la física de partículas, característica que entendemos perfectamente desde los trabajos de Kenneth Wilson y colaboradores en los años 70 del pasado siglo. Nótese que el nombre "grupo" aquí no es muy afortunado ya que, en matemáticas, un grupo es un conjunto de transformaciones en el que todas tienen transformación inversa. Sin embargo, al estudiar cómo varían los coeficientes del lagrangiano o del hamiltoniano de una teoría al disminuir el cut-off (lo que se denomina integrating out a momentum shell) lo que estamos haciendo es llevar a cabo un proceso irreversible en el que nos estamos olvidando los detalles microscópicos que sólo pueden detectarse con momentos más altos que el cut-off. Un nombre más adecuado sería el de "monoide de renormalización" o, si además surpriminos el elemento neutro (la transformación "no hacer nada"), entonces el nombre correcto sería "semigrupo de renormalización". 

Nótese que, en el ejemplo de juguete que hemos puesto, la teoría efectiva no tenía ninguna escala de distancia o momento, ya que la ecuación de Schrödinger de una partícula sometida a un potencial delta de Dirac en dos dimensiones se queda igual si multiplicamos todas las distancias por el mismo factor. Sin embargo, a través del grupo de renormalización, la escala de distancias $h/\sqrt{2m|E_0|} $, que da el orden de magnitud de la anchura de la función de onda en la teoría microscópica, surge dinámicamente en la teoría efectiva. Una cosa parecida ocurre en la cromodinámica cuántica, donde, aunque los quarks no tuvieran masa, tampoco es invariante de escala por ese motivo. A este fenómeno, en el que aparece una escala a partir de un acoplo en una teoría que parecía invariante de escala se le denomina transmutación dimensional.

Para que una teoría no tenga ninguna escala es necesario, no sólo que su lagrangiano a nivel clásico no la tenga, sino también que esta invarianca de escala se mantenga también al tener en cuenta los efectos cuánticos. A las teorías así, si son también relativistas, se las denomina teorías de campos conformes (Conformal Fiel Theories, CFT), ya que ahí la invariancia de escala se junta con el grupo de Poincaré para formar el grupo conforme.

De lo dicho en el anterior párrafo se desprende que, para que una teoría cuántica de campos sea conforme hace falta que los acoplos tomen un valor correspondiente a un punto fijo de grupo de renormalización, es decir, que este valor de los acoplos sea tal que no cambia al aplicarle el flujo del grupo de renormalización. La derivada de los acoplos con respecto al cut-off tiene que ser cero para ese valor concreto. Para que ese punto fijo no sea trivial, este valor donde la derivada es nula tiene que ser finito o cero, ya que un valor infinito en los acoplos implicaría que los experimentos a baja energía no podrían excitar ningún grado de libertad. En el caso contrario, en el que el punto fijo corresponde a acoplo nulo, a ese punto fijo se le denomina gaussiano, ya que el único término no nulo en el lagrangiano sería el de los términos correspondientes a la energía cinética, de tal forma que la integral de camino de Feynman de la teoría estaría formada por integrales de gaussianas.

Nótese también que hemos podido construir una teoría efectiva que nos da predicciones correctas en buena aproximación, porque hemos fijado como valor de $E_0$ el que se obtiene experimentalmente, y hemos hecho al resto de parámetros correr con el cut-off para que ese valor de $E_0$ se quede fijo. Esta teoría es predictiva porque, una vez fijado $E_0$ a su valor experimental, el resto de infinitas cantidades que te permite calcular la teoría (por ejemplo, probabilidades de encontrar la partícula en tal o cual sitio dadas unas condiciones iniciales) se pueden comparar con lo que nos dicen el resto de datos experimentales (infinitos posibles) y, dentro del régimen en el que la teoría efectiva es una buena aproximación, van a coincidir las predicciones teóricas con los resultados de los experimentos. Pero, si el número de parámetros que hubiéramos necesitado fijar, como nos ha pasado con $E_0$, hubiera sido infinito, entonces la teoría efectiva no habría sido predictiva.

Por tanto, dependiendo de si la teoría efectiva, definida por debajo del cut-off, necesita un número finito de parámetros (como $E_0$ en el ejemplo) o infinito, se dice que esta teoría es renormalizable o no. Ejemplos de teorías renormalizables son las teorías con libertad asintótica (como la del ejemplo que hemos dado y la cromodinámica cuántica), en las que el acoplo se va a cero al hacer crecer el cut-off hacia energías asintóticamente altas (lo que llamamos el ultravioleta), o las teorías que son invariantes de escala (ya acabamos de decir que la del ejemplo, el potencial bidimiensional tipo delta de Dirac, clásicamente lo parece pero cuánticamente no lo es).

En general, en teoría cuántica de campos, para evitar que una teoría efectiva sea no renormalizable, es necesario que sólo haya sumandos en la densidad lagrangiana de la teoría cuyos coeficientes tengan dimensiones que sean potencias no negativas de la masa/energía (en unidades en las que $c=\hbar=1$). En efecto, si alguno de estos coeficientes tuviera alguna potencia negativa, entonces al calcular un diagrama de Feynman con $n$ bucles debidos a esa interacción el resultado sería proporcional a ese coeficiente elevado a $n$. Dado que las amplitudes de probabilidad en mecánica cuántica son adimensionales, eso significa que ese diagrama tiene que ser proporcional a la potencia n-ésima de la energía $E_l$ de las partículas que corren por el bucle, lo que da lugar a una integrales divergente en el ultravioleta, para momento grandes. Se produciría, por tanto, un nuevo tipo de divergencia cada vez añadimos nuevos bucles de partículas para ir a un orden superior en teoría de perturbaciones, resultando en una teoría efectiva que necesita un número infinito de ajustes para hacer predicciones cada vez a más alta energía y, por tanto, sería una teoría no renormalizable. A los términos en la lagrangiana de una teoría cuyos coeficientes tiene dimensiones de potencias negativas de la energía se les denomina irrelevantes, ya que sus efectos sobre las amplitudes de probabilidad se van haciendo cada vez más pequeños a medida que vamos avanzando en el grupo de renormalización, es decir, a medida que nos vamos a energías cada vez más pequeñas (y su valor obtenido mediante el flujo del grupo de renormalización asintóticamente a bajas energías, inluso teniendo en cuenta los efectos cuánticos, está determinado sólo por los acoplos que no son irrelevantes). En cambio, a los que tienen potencias positivas de la energía se les denomina relevantes, y si no tienen dimensiones se les denomina marginales. El acoplo $\tilde{g}$ de nuestro ejemplo de juguete parece clásicamente que que es marginal al hacer el análisis dimensional, pero hemos visto que las correcciones cuánticas hacen que sea relevante (como le ocurre también al acoplo de la cromodinámica cuántica) porque su valor con respecto al del punto fijo se hace más y más grande a medida que disminuimos la energía. Se dice entonces que es marginalmente relevante. En cambio, el acoplo de la electrodinámica cuántica, que también parece marginal clásicamente, en realidad es marginalmente irrelevante, se hace cada vez más grande a medida que aumentamos la energía (exploramos distancias más pequeñas), produciéndose un polo de Landau. Hay que darse cuenta también que, dado que el hecho de que un acoplo sea relevante o no depende del análisis dinensional, esta condición depende de la dimensión del espaciotiempo en el que está definida la teoría cuántica de campos. Por ejemplo, para un campo escalar en (5+1) dimensiones el único término relevante es el que da masa al campo, mientras que en (1+1) dinensiones, el tener ser el campo escalar adimensional, hay infinitos términos marginales diferentes. También es necesario notar que esta relación entre las dimensiones de un acoplo y si son relevantes o no se tiene que hacer poniendo los campos en unas unidades en las que el coeficiente del término cinético sea adinensional.

Repetimos el resultado más importante del párrafo anterior. Si queremos tener una teoría efectiva predictiva, es decir, que las infinitas predicciones de la teoría sean completamente universales y estén bien definidas una vez hemos fijado el valor de un número finito de parámetros relacionados con los órdenes más bajos en teoría de perturbaciones (nivel árbol y unos pocos bucles), una teoría en la que los diagramas con muchos bucles sólo afectan a los resultados (las amplitudes de probabilidad) cambiando su valor pero sin necesitar que redefinamos la teoría desde cero cada vez que aumentamos la precisión con otro bucle, entonces esta teoría tiene que ser renormalizable, la densidad lagrangiana sólo puede tener sumandos cuyos coeficientes tengan dimensiones que sean potencias no negativas en la masa/energía, de tal forma que sean relevantes o marginalmente relevantes. Es importante señalar que, como estos acoplos relevantes tienden a un punto fijo del grupo de renormalización asintóticamente en el UV, toda teoría cuántica de campos renormalizable se puede entender a altas energías como una teoría de campos conforme (CFT) perturbada con términos relevantes (cuyo efecto se va notando más y más a medida que disminuimos la energía y nos vamos a lo que llamamos el infrarrojo). Afortunadamente, en la mayoría de teorías efectivas de interés toda la física a escalas muy por debajo del UV, incluyendo el valor de los acoplos irrelevantes, está codificada por un número finito y pequeño de parámetros relevantes, con lo que asignando a estos el valor que se obtenga en los experimentos de baja energía ya tenemos una teoría que predice todo lo demás que ocurre a esas bajas energías y podemos ignorar los, posiblemente infinitos, acoplos irrelevantes que dependen de la física desconocida que ocurre en el UV.

Por tanto, si la teoría es renormalizable, podemos encontrar también la teoría efectiva a otras escalas de distancia y energía más allá (por encima) del cut-off haciendo correr los acoplos en sentido inverso al del grupo de renormalización, pero siempre sobre la premisa de que la física en lo que llamamos el infrarrojo (IR), por debajo del cut-off, no dependa fuertemente de la física que ocurre muy por encima del cut-off, en lo que llamamos el ultravioleta (UV). A este principio, que se cumple en la mayoría de casos de interés y en el que se basa toda la filosofía de las teorías efectivas, se le llama desacoplo UV/IR. Gracias a él podemos describir la física a grandes distancias (en el IR) sin conocer los detalles de lo que ocurre microscopicamente (en el UV). Es decir, la física a escalas grandes de distancias que te da la teoría efectiva sólo depende de unos pocos parámetros y no de todos los detalles que ocurren en al física microscópica.

De hecho, las teorías cuánticas de campos que nos sirven para describir el mundo de la física de partículas no sólo son perturbaciones de teorías conformes sino que, además, pueden ser descritas mediante el formalismo de la integral de camino de Feynman. Esto implica que el punto fijo del que son perturbaciones es gaussiano. Por ejemplo, en mecánica cuántica de una partícula, que es una teoría de campos en (0+1 dimensiones), en el formalismo de la integral de camino, $$
\hspace{-1cm} U(x_b, t_b; x_a, t_a) = \lim_{N \to \infty} \>
\left (\frac{m}{2 \pi i \epsilon \hbar} \right )^{N/2}
\int_{-\infty}^{+\infty} dx_1 \> dx_2 \> \ldots \> dx_{N-1} \cdot
$$ $$
\cdot \exp \left \{ \frac{i \epsilon}{\hbar} \sum_{j=0}^{N-1} \left [
\frac{m}{2} \left ( \frac{x_{j+1} - x_j}{\epsilon} \right )^2 -
V(x_j) \right ] \> \right \} =
$$ $$
= \int_{x(t_a)=x_a}^{x(t_b)=x_b} {\cal D}x(t) \> e^{i S[x(t)]/\hbar} \> \> .
$$ en la amplitud de transición entre puntos espaciotemporales cercanos domina el término cinético frente al de la energía potencial en el límite en el que hacemos tender el intervalo de tiempo $\epsilon$ a cero, es decir, en el UV (de hecho, el análisis dimensional nos dice en este caso que, da igual qué función se tome para el potencial, este término siempre será relevante y este es el motivo por el que en mecánica cuántuca de una partícula normalmente no aparece divergencias y no es necesario saber nada de renormalización). El caso del ejemplo de juguete de este post es especial porque el potencial no es una función, sino una distribución de tipo delta de Dirac.

Pero es necesario señalar que, incluso aunque la teoría efectiva sea renormalizable y haga predicciones matemáticamente consistentes incluso de qué pasa a medida que vamos aumentando la escala de energía, puede llegar un momento en que, al ir hacia el UV, llegamos a la escala característica en la que se empieza a notar experimentalmente que esa teoría era sólo una aproximación a la realidad y hay que sustituirla por una nueva teoría física, ya que la teoría efectiva no da cuenta de las nuevas partículas y fenómenos que van apareciendo al aumentar la energía. Eso la teoría efectiva no lo ve y la puedes extrapolar ingenuamente si quieres hasta energías tan altas como quieras. Para cualquier cut-off $E_m$, donde debemos suponer que entrará seguramente en juego nueva física desconocida, la teoría renormalizable produce correcciones a los procesos de baja energía que van como $E_m^{-n}$, con $n>0$, de manera que estas correcciones pueden volverse arbitrariamente pequeñas al aumentar $E_m$ tanto como queramos. Si nos olvidamos de la gravedad y de que las teorías cuánticas de campos se rompen como muy tarde a la escala de Planck, la única indicación que tenemos de que esa teoría es efectiva es el flujo del grupo de renormalización: el valor numérico de los parámetros de la teoría cambia al ir cambiando la energía del cut-off. Las teorías con libertad asintótica y las invariantes de escala son ejemplos de este caso. Las teorías con un polo de Landau, como la electrodinámica cuántica, nos indican que hay nueva física sólo a energías exponencialmente altas, con lo que permiten que el cut-off sea exponencialmente alto, mucho más alto que las energía en las que esa teoría ya deja de ser válida (mucho más alto que la escala de unificación electrodébil). La serie perturbativa en electrodinámica cuántica se comporte bien a todos los órdenes en teoría de perturbaciones.

El que las teorías renormalizables sean predictivas viene de haber podido separar la escala de energía en la que estamos interesados (las energías bajas a las que pueden acceder nuestros aceleradores de partículas) de las escalas de alta energía donde casi con certeza entran en juego nuevas partículas y fenómenos físicos desconocidos. El desacoplo IR/UV y la renormalización nos permiten ignorar estas partículas y fenómenos físicos desconocidos que, se espera, haya en las escalas de energía altas a las que no podemos acceder. Pero que podamos ignorarlos no significa que no existan. Eso lo descubriremos cuando podamos acceder experimentalmente a energías más altas. Es decir, este desacoplamiento de las escalas UV/IR nos permite hacer física de partículas con predicciones de gran precisión aunque ignoremos lo que ocurre a alta energía, pero tiene la contra de que, al no afectarnos lo que ocurre al alta energía, entonces no podemos aprender nada sobre ls física en la escala UV inexplorada y desconocida.

Si, por el contrario, la teoría no es renormalizable, entonces, en cuanto intentamos encontrar la teoría efectiva a medida que aumentamos la energía, las correcciones que vienen de la física UV desconocida se hacen grandes y la teoría ya no es predictiva al necesitar infinitos parámetros que ajustar. Esto es así porque, si en una teoría que era renormalizable intentamos añadirle un acoplo irrelevante de valor finito a baja energía, entonces al ir hacia atrás en el flujo del grupo de renormalización (aumentar la energía) nos iremos cada vez más lejos del punto fijo del UV que tenía la teoría renormalizable porque los acoplos irrelevantes se alejarán cada vez más de éste. El resultado de nuestros cálculos dejará de tener sentido físico de la misma manera que, después de multiplicar un número por cero, intentamos volver a tener el número que teníamos inicialmente. El flujo del grupo de renormalización es irreversible. No se puede recuperar la información perdida volviendo al UV. 

Los acoplos irrelevantes de tamaño finito a bajas energías son incosistentes si lo que queremos es una teoría que se pueda extrapolar hasta el UV mandando el cut-off tan arriba como queramos. Sin embargo, en la práctica, los operadores irrelevantes son muy útiles como herramienta en una teoría efectiva de campos de baja energía, siempre y cuando uno no pretenda que sean válidos hasta energías infinitas. Es decir, a energías pequeñas sí podemos seguir usando la teoría no renormalizable como teoría efectiva a grandes distancias (energías pequeñas). Cuando buscamos teorías efectivas que describan la naturaleza a baja energía, e insistimos en quedarnos ahí, en buena aproximación también podemos trabajar con lagrangianos no renormalizables. Sin embargo, al estudiar si algunos procesos son calculables en esta teoría, descubriremos que sólo los procesos en los que las energías de partículas externas sean menores que un cut-off tienen asociadas amplitudes que se comportan bien según la teoría. De hecho, los acoplos dimensionales que suprimen los operadores irrelevantes son una indicación de la escala donde la descripción efectiva de baja energía deja de funcionar. La misma teoría nos está pidiendo especificar alguna nueva física cerca o por encima del cut-off, porque no te deja poner el cut-off tan alto como quieras. En cambio, las teorías con interacciones renormalizables permiten que el cut-off sea arbitrariamente alto.

Es importante remarcar que sólo podemos exigir a las teorías de física de partículas que sean renormalizables si tenemos la creencia irracional de que el universo debe estar descrito por teorías que puedan ser extrapoladas de manera única a energías mucho más altas que aquellas a las que podemos acceder experimentalmente. Pero la naturaleza no tiene que ser como a nosotros nos gustaría que fuera, con lo que también debemos admitir que nuestras teorías efectivas no sea renormalizables y, por tanto, necesiten ser reformuladas y completadas con más ingredientes continuamente al ir cada vez a energías un poco más altas. De hecho, la interacción gravitatoria nos obliga a ello. En el caso de la gravedad cuántica, la cuantización ingenua de la relatividad general da una teoría cuántica de campos efectiva que no es renormalizable y en cuyas predicciones sólo podemos confiar si estamos muy por debajo de la escala de Planck. Esta escala corresponde a unas distancias de unos $10^{-35} m$ y unas energías de unos $10^{19} GeV$ por partícula, energías que están 15 órdenes de magnitud por encima de lo máximo que podemos hacer hoy en día en los aceleradores de partículas y unos 8 órdenes de magnitud por encima de la de los rayos cósmicos más energéticos, algo completamente inaccesible a los experimentos que somos capaces de hacer ahora y, posiblemente, en los de los próximos siglos. Entonces, ¿cómo podemos explorar los efectos cuánticos de la gravedad? No lo sabemos todavía bien, pero tenemos un excelente laboratorio teórico para hacerlo: los agujeros negros, que violan el desacoplo IR/UV, asunto que dejamos para otro post. Aquí simplemente nos quedamos en que es inútil e innecesario forzar a que nuestras teorías cuánticas de campos efectivas sean válidas en todas las escalas de energía, aunque es cierto que las teorías efectivas renormalizables tienen la ventaja de ser más sencillas cuando sea razonable aplicar la navaja de Occam. Sería raro que aparezca nueva física cada vez que aumentemos un poco la energía. Las teorías renormalizables, como el Moledo Estándar de la física de partículas, pueden ser extrapoladas a escalas de energía arbitrariamente altas mientras no aparezca nueva física, pero no pueden incluir gravedad, que inevitablemente parece no renormalizable a bajas energías. Hasta ahora la única teoría cuántica que tenemos, aunque no la conozcamos al completo, que es capaz de describir todos los tipos de partículas y sus interacciones incluyendo la gravedad de forma matemáticamente consistente para cualquier valor de energía es la teoría de cuerdas.

Por último, aclaro que en este post he hablado sólo de las divergencias ultravioletas, porque son precisamente éstas las que constituyen un problema, las que nos están diciendo que ese modelo no es la realidad y que, en el mejor de los casos, a lo máximo que aspira es a ser efectivo a baja energía, a ser un límite de una teoría más precisa. Pero, además de las ultravioletas, también ocurre típicamente en teoría cuántica de campos que aparecen otro tipo de divergencias cuando calculamos amplitudes de probabilidad. Se trata de las divergencias infrarrojas. Éstas surgen al integrar sobre longitudes de onda arbitrariamente largas, es decir, sobre momentos arbitrariamente pequeños. Pero estas divergencias no nos indican que la teoría sea incompleta. La presencia de diagramas de Feynman divergentes de tipo infrarrojo en una teoría cuántica de campos no nos dice que ésta tenga nada incorrecto. Por ejemplo, en electrodinámica cuántica las hay porque es imposible detectar fotones de longitud de onda arbitrariamente larga. Así que las amplitudes de probabilidad que habría que calcular para un experimento real son amplitudes sobre procesos que incluyen un número arbitrario de fotones indetectables por los aparatos. Y en ese cálculo, que es el que tiene significado físico, las divergencias infrarrojas se cancelan. Las divergencias infrarrojas sólo surgen cuando intentamos calcular algo que no tiene significado físico, aunque desde el punto de vista de la teoría, desconectada del experimento, nos parezca muy natural. Al igual que las ultravioletas, surgen de creernos que lo que tenemos en nuestro papel es la realidad, pero en el caso de las infrarrojas ese error es sólo nuestro (le estamos haciendo a la teoría la pregunta equivocada), no lo es también de la teoría, como ocurre en las ultravioleta.

En teoría cuántica de campos, por tanto, las divergencias infrarrojas y las ultravioletas tienen significados muy distintos, y esto es así porque en este marco en el que trabajan los físicos de partículas hay un desacoplo IR/UV, es decir, la física a largas distancias se deriva de la física a cortas distancias, pero no al revés. Sin embargo, hay unos objetos físicos, los agujeros negros, para los cuales hemos descubierto que este desacoplo no se cumple, pero eso da para otro post. 
 
En conclusión, los físicos y las físicas de partículas no restan infinito a infinito para que les salga un resultado finito. Lo que hacen es darse cuenta de que, al igual que la función de onda no es un ente físico, sino que es un objeto matemático que sólo existe en nuestra cabeza y, por eso, puede hacer cosas raras como colapsar más rápido que la luz, lo que teníamos en la cabeza no es la realidad. Si las divergencias que aparecen son infrarrojas, eso lo que nos está diciendo es que no le estamos haciendo a la teoría la pregunta correcta, no estamos calculando algo con significado físico y que se pueda medir. Y si las divergencias son ultravioletas, eso lo que nos está diciendo es que el modelo efectivo que tenemos los científicos en la cabeza no es la realidad. Lo máximo que podemos hacer es ajustarlo para que se parezca lo máximo posible a la realidad. Si hay suerte y la teoría es renormalizable, entonces con un número finito de ajustes es suficiente para producir una teoría sin divergencias y que da predicciones con significado físico para cualquier fenómeno. Es decir, lo más importante aquí es que este ajuste muchas veces se puede hacer de manera que la teoría sea predictiva incluso a energías mucho más altas de las que hemos explorado, y es precisamente el Modelo Estándar de la física de partículas la teoría que ha dado predicciones más precisas y que han concordado con los experimentos realizados a posteriori con un mayor número de cifras significativas de toda la historia de la humanidad.


Sobre el autor: Sergio Montañez Naz es doctor en física teórica y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

Bibliografía

  • Huang (1992), Quarks, Leptons And Gauge Fields, World Scientific, 2nd edition (1992)
  • Landau, L. D. and Lifshitz, E. M. (1992). Mecánica cuántica. Volumen 3 del Curso de Física Teórica. Reverté. Primera edición. Barcelona.
  • de Llano, M., A. Salazar, and M. A. Solís. (2005) "Two-dimensional delta potential wells and condensed-matter physics." Revista mexicana de física 51.6 (2005): 626-632.
  • Motl, L. Diversos posts en el difunto blog The Reference Frame.
  • Nyeo, Su-Long (2000): Regularization methods for delta-function potential in two-dimensional quantum mechanics. American Journal of Physics 68, 571 (2000); doi: 10.1119/1.19485
  • Shomer, Assaf (2007), A Pedagogical explanation for the non-renormalizability of gravity, arXiv:0709.3555 (hep-th).
  • Tong, David: Lectures on Quantum Mechanics