Páginas

6 sept 2023

Si rompiendo núcleos de átomos obtenemos energía, ¿por qué uniéndolos también?

Conocemos como energía nuclear al uso de reacciones nucleares que liberan energía para generar calor. Básicamente, existen dos formas de liberar energía a partir de los núcleos de los átomos:

  • la fisión nuclear, que es una reacción nuclear o un proceso de desintegración radioactiva en el que el núcleo de un átomo se divide en partes más pequeñas (núcleos más ligeros). Esta energía liberada es la que se usa con frecuencia en turbinas de vapor para producir electricidad en las centrales nucleares.
Dominio público, https://commons.wikimedia.org/w/index.php?curid=486924
  • la fusión nuclear, que es una reacción en la que dos núcleos atómicos se fusionan para formar un núcleo más pesado. Los reactores de fusión nuclear aún no son económicamente viables, pero esta tecnología se encuentra actualmente en investigación y podría ser viable en algunas décadas.
Deuterium-tritium fusion.svg
Por Wykis - Trabajo propio, basado en w:File:D-t-fusion.png, Dominio público, https://commons.wikimedia.org/w/index.php?curid=2069575

Si dividir un núcleo en dos núcleos más pequeños libera energía, parecería que combinar dos núcleos más pequeños en un núcleo más grande requeriría energía, no liberarla, porque es el proceso inverso. Con la fisión nuclear obtenemos energía en las centrales nucleares rompiendo núcleos. Con la fusión, obtenemos energía uniéndolos, que es lo contrario. Pero el inverso de un proceso exotérmico es un proceso endotérmico, no obtienes energía, la pierdes. Acabamos de experimentar lo que se denomina un conflicto cognitivo


¿Cómo es esto posible? Eso es lo que vamos a intentar explicar en este post a un nivel de bachillerato.

12 jul 2023

No es verdad que los físicos restemos infinito a infinito


"A los físicos, mientras funcione, llámale lo que quieras. ¿Delta de Dirac como función? Dale. ¿El cálculo te da infinito? Pues réstale infinito y ya". Es posible que hayas oído o leído en Twitter algún comentario parecido a éste.



De alguna manera se ha instalado en el imaginario colectivo que la física es como el "lado oscuro" de las ciencias exactas y que los métodos poco rigurosos que practicamos los físicos pervierten a los jóvenes desviándolos del camino correcto, el de la matemática pura e inmaculada.


Sin embargo, como ya he explicado en otro post, las matemáticas no sólo tienen las dos caras de las que tradicionalmente nos han hablado, el álgebra y la geometría, sino que los conceptos matemáticos tienen también típicamente un significado físico (en modelos que se pueden aplicar a nuestro universo o no) que no se debe ignorar ni cuando aprendemos matemáticas ni cuando hacemos investigación puntera en matemática moderna. Mucho más que el rigor, es la interacción entre álgebra, geometría y física la que da a las matemáticas toda la potencia que tienen, y esto ha sido así ya desde tiempos de Descartes y Fermat. Pero es que, además, hay veces en las que se acusa a los físicos de ser demasiado poco rigurosos injustamente. Un ejemplo de esto es lo que ocurre con la renormalización en teorías efectivas.



Para ilustrarlo sin tener que irme a la teoría cuántica de campos, disciplina que muy pocos físicos, entre los que yo no estoy, dominan realmente, voy a poner un ejemplo de mecánica cuántica básica que se estudia en el grado de Física. Supongamos una partícula cuántica que se mueve en un mundo de dos dimensiones. Vamos a denotar su posición en coordenadas polares como $(r,\phi)$. Supongamos que esta partícula está sometida a un pozo de energía potencial que toma un valor constante negativo $-U_0$ dentro del círculo $r<a$, pero que se anula si $r>a$.

En ese caso, la mecánica cuántica nos dice que, si la energía $E$ de la partícula es positiva, entonces esta energía no está cuantizada, sino que puede tomar cualquier valor real positivo y la partícula se va a poder mover por todo el plano. Pero, si $E<0$, entonces sólo están permitidos algunos valores discretos concretos de la energía, que se corresponden con estados ligados de la partícula en los que la función de onda de la partícula sólo toma valores no despreciables dentro del círculo o, si es fuera, cerca de éste, ya que para $r>a$ la función de onda decae como una exponencial a medida que nos alejamos del círculo.
Supongamos, además, que $a$ es muy pequeño comparado con las distancias que somos capaces de medir. Se puede demostrar entonces [LSS2005] que, al ser $a$ pequeño, incluso aunque la profundidad del pozo $U_0$ sea muy pequeña, siempre va a haber algún estado ligado, algún estado con energía $E<0$. Cuando la cantidad adimensional
$\tilde{g}= \frac{ m \pi U_0 a^2}{\hbar^2}$
es mucho más pequeña que uno, el estado fundamental tiene aproximadamente una energía
$E_0=-\frac{\hbar^2}{2ma^2} \exp \left(  -\frac{2\hbar^2}{mU_0a^2}  \right)$
Como $\tilde{g}<1$, se tiene que $| E_0 |<\frac{\hbar^2}{2ma^2}$, y no hay estados excitados (en cuando excitamos a la partícula para que vaya a un nivel más alto que el fundamental ésta ya tendría energía positiva y escaparía del pozo).

Pero, ¿qué pasa si no somos capaces de explorar distancias tan pequeñas como $a$, que es lo que nos pasa ahora mismo con los aceleradores de partículas actuales? En ese caso, al hacer física, no vamos a poder describir la energía potencial a la que está sometida la partícula mediante ninguna función que describa la forma microscópica que tiene el pozo. En este mundo de juguete que estoy tomando como ejemplo los físicos sabemos, porque lo medimos experimentalmente, que la partícula tiene un estado ligado con energía negativa $E_0$ (un número que nos dan los experimentos). Pero no sabemos si el potencial al que está sometida la partícula es cuadrado o si tiene otra forma. No tenemos ningún indicio de que el pozo tenga grosor, así que se nos puede ocurrir describir este pozo mediante una delta de Dirac, que es una distribución matemática infinitamente estrecha. En efecto, como la delta de Dirac se puede definir como el límite, cuando $a \to 0$ de una función que vale $\frac{1}{\pi a^2}$ dentro del círculo, y que se anula fuera, el potencial al que está sometida la partícula se puede aproximar, siempre que no exploremos distancias más pequeñas o del orden de $a$ , por
$U(r,\phi)\simeq -\frac{\hbar^2\tilde{g}}{2 \pi r m}\delta(r)$ 

Sin embargo, si nos da por tratar de resolver la ecuación de Schrödinger independiente del tiempo para la partícula sometida a ese potencial tipo delta de Dirac
$\left( \frac{\hbar^2}{2m} \nabla^2 -\frac{\hbar^2 \tilde{g}}{2 \pi r m}\delta(r) \right) \psi(r,\phi)=E \psi(r,\phi) $
al pasar al espacio de momentos
$ \frac{p^2}{2m} \tilde{\psi}(p) -\frac{\pi a^2 U_0}{2 \pi }\psi(r=0)=E \tilde{\psi}(p)$
se obtiene una ecuación inconsistente a no ser que
$\frac{1}{\tilde{g}}=\frac{1}{2\pi m} \int_0^\infty dp \frac{p}{\frac{p^2}{2m}-E_0} $
ecuación que no se puede cumplir porque la integral es divergente.

Repito lo que está ocurriendo. Los físicos hemos hecho un modelo para explicar el comportamiento de una partícula que sabemos que tiene un estado ligado en un pozo que ni siquiera sabemos si tiene anchura. Este modelo consiste un un potencial de tipo delta de Dirac. Sin embargo, haciendo cálculos para que el modelo sea consistente, nos sale que el parámetro que tiene el modelo, el factor $ \frac{1}{\tilde{g}} $, diverge, se hace infinito. Tenemos un problema bastante grande, ¿verdad?


Pues bien, un problema parecido lo tienen de forma rutinaria todos los físicos y las físicas de partículas. Éstos trabajan siempre con teorías cuánticas de campos, que son teorías cuánticas en los que hay uno o varios osciladores (bosónicos y/o fermiónicos) en cada punto del espacio y acoplados entre ellos. Y resulta que, incluso en la teorías cuánticas de campos más simples, casi cualquier cálculo que se haga que tenga en cuenta efectos cuánticos da como resultado una integral en cantidades de movimiento que diverge. Y, ¿qué es lo que hacen estas señoras y estos señores para resolverlo? ¿Le restan a $1/\tilde{g}$, que sale infinito, otro infinito para que salga un resultado finito como critican algunas personas que han estudiado poca física? No. Lo que hacen es darse cuenta de que, al poner los límites de la integral en la cantidad de movimiento entre cero e infinito, se han ido más allá del rango de validez de su modelo. No podemos considerar en nuestro modelo momentos demasiado grandes, porque eso significaría, por la mecánica cuántica, que estamos explorando distancias $h/p$ mas pequeñas que $a$, y para esas distancias ya se nota que el potencial que hay realmente no era una delta de Dirac. Pero, claro, ni saben lo que vale la anchura $a$ ni saben qué forma tiene el pozo. Así que, para evitar hacerlo mal, los físicos y las físicas de partículas ponen a mano un valor máximo, un cut-off en el momento. Es decir, en vez de integrar hasta infinito, integran hasta un valor máximo
$p_{m}<h/a$,
En realidad, todas las teorías cuánticas de campos de interés en física son realmente teorías efectivas, aproximaciones a baja energía de una teoría más completa, con lo que es necesario establecer un cut-off en el momento en todas ellas. Incluso en las teorías cuánticas de campos libres (en las que los campos no interaccionan entra sí), que son las más sencillas que hay, tenemos un oscilador en cada punto del espacio. Estrictamente dentro de esa teoría cuántica de campos podemos excitar este grado de libertad a energías arbitrariamente altas. Pero no nos podemos olvidar de que toda la materia y energía del universo está sometida a la interacción gravitatoria y, una vez que tenemos en cuenta la gravedad, seguro que esa teoría cuántica de campos deja de ser una descripción válida en alguna escala en la cantidad de movimiento antes de llegar a la escala de Planck, porque cuando se concentra suficiente densidad de energía en una región pequeña del espacio, ésta colapsará para formar un agujero negro, con lo que no es posible excitar esos osciladores a energías tan altas como se quiera sin salirnos de la teoría cuántica de campos. Como muy tarde, a la escala de Planck la teoría cuántica de campos tiene que dejar sí o sí de ser una buena aproximación al comportamiento de la naturaleza.

En el modelo de juguete de mecánica cuántica de una partícula que nos atañe, al introducir el cut-off $p_m$ en el momento se obtiene
$ \frac{1}{\tilde{g}}=\frac{1}{2\pi } \left[ \log \left( \frac{p_m^2/(2m)}{|E_0|}+1 \right) \right]$
En esta ecuación se puede ver que, para no salirnos del régimen de $\tilde{g}<<1$ en el que estamos trabajando y, a la vez, poder ver el estado ligado de energía negativa $E_0$ con nuestra teoría efectiva de bajo momento, el cut-off $p_m$ en el momento tiene que cumplir:
$|E_0|<\frac{p_m^2}{2m}<\frac{\hbar^2}{2ma^2}$
con lo que podemos escribir la siguiente expresión para el parámetro de nuestro modelo efectivo
$ \frac{1}{\tilde{g}}=\frac{1}{2\pi } \log \left( \frac{p_m^2/(2m)}{|E_0|} \right) $
Pero, claro está, el valor concreto del cut-off $p_m$ es arbitrario, lo hemos introducido a mano. ¿Eso es ser poco riguroso? No. Podemos definir nuestra teoría efectiva (la teoría en la que la partícula interacciona con la delta de Dirac en este caso) para cualquier cut-off que esté en el intervalo anterior y hemos cogido un valor dentro de ese intervalo. Eso se puede hacer.

Pero, ¿qué hacemos ahora? ¿Mandamos el cut-off a infinito y, al mismo tiempo, $\frac{1}{ \tilde{g} }$ también a infinito de tal manera que $|E_0|$ se mantenga finito e igual a la cantidad que se mide experimentalmente? Aunque muchos físicos de partículas abusan del lenguaje y dicen que, al renormalizar una teoría, es esto lo que hacen, en realidad lo que están haciendo es darse cuenta de que $p_m$ y $\tilde{g}$ no son cantidades que existen en la naturaleza. Son magnitudes inventadas por nosotros. Las hemos creado para poder construir la teoría efectiva (ya que la forma concreta del potencial que hay en la naturaleza a nivel microscópico, que es un potencial cuadrado en este caso, es desconocida). La teoría o modelo efectivo que nos hemos inventado consiste en un potencial delta de Dirac. $\tilde{g}$ nos da el acoplo de la partícula con una delta de Dirac que no existe, y $p_m$ el momento máximo que puedo considerar en esa teoría efectiva sin que ésta deje de ser una buena aproximación a la realidad.

Como $\tilde{g}$ y $p_m$ son magnitudes que no existen, les puedo dar el valor que quiera dentro de los rangos descritos arriba, pero no de cualquier forma. Sus valores tienen que estar relacionados mediante la última ecuación que hemos puesto, ecuación que nos dice cómo corre el acoplo $ \tilde{g} $ a medida que vamos aumentando $p_m$. Lo que creíamos que son constantes de la naturaleza, en realidad dependen de la escala de distancias a las cuales se está explorando la naturaleza. A esta variación del acoplo con la escala de distancia, es decir, momento (o energía), con la que estamos trabajando se denomina flujo del grupo de renormalización, y es una característica propia que tienen las teorías efectivas, desde el modelo de juguete que acabamos de describir hasta el mismo Modelo Estándar de la física de partículas, característica que entendemos perfectamente desde los trabajos de Kenneth Wilson y colaboradores en los años 70 del pasado siglo. Nótese que el nombre "grupo" aquí no es muy afortunado ya que, en matemáticas, un grupo es un conjunto de transformaciones en el que todas tienen transformación inversa. Sin embargo, al estudiar cómo varían los coeficientes del lagrangiano o del hamiltoniano de una teoría al disminuir el cut-off (lo que se denomina integrating out a momentum shell) lo que estamos haciendo es llevar a cabo un proceso irreversible en el que nos estamos olvidando los detalles microscópicos que sólo pueden detectarse con momentos más altos que el cut-off. Un nombre más adecuado sería el de "monoide de renormalización" o, si además surpriminos el elemento neutro (la transformación "no hacer nada"), entonces el nombre correcto sería "semigrupo de renormalización". 

Nótese que, en el ejemplo de juguete que hemos puesto, la teoría efectiva no tenía ninguna escala de distancia o momento, ya que la ecuación de Schrödinger de una partícula sometida a un potencial delta de Dirac en dos dimensiones se queda igual si multiplicamos todas las distancias por el mismo factor. Sin embargo, a través del grupo de renormalización, la escala de distancias $h/\sqrt{2m|E_0|} $, que da el orden de magnitud de la anchura de la función de onda en la teoría microscópica, surge dinámicamente en la teoría efectiva. Una cosa parecida ocurre en la cromodinámica cuántica, donde, aunque los quarks no tuvieran masa, tampoco es invariante de escala por ese motivo. A este fenómeno, en el que aparece una escala a partir de un acoplo en una teoría que parecía invariante de escala se le denomina transmutación dimensional.

Para que una teoría no tenga ninguna escala es necesario, no sólo que su lagrangiano a nivel clásico no la tenga, sino también que esta invarianca de escala se mantenga también al tener en cuenta los efectos cuánticos. A las teorías así, si son también relativistas, se las denomina teorías de campos conformes (Conformal Fiel Theories, CFT), ya que ahí la invariancia de escala se junta con el grupo de Poincaré para formar el grupo conforme.

De lo dicho en el anterior párrafo se desprende que, para que una teoría cuántica de campos sea conforme hace falta que los acoplos tomen un valor correspondiente a un punto fijo de grupo de renormalización, es decir, que este valor de los acoplos sea tal que no cambia al aplicarle el flujo del grupo de renormalización. La derivada de los acoplos con respecto al cut-off tiene que ser cero para ese valor concreto. Para que ese punto fijo no sea trivial, este valor donde la derivada es nula tiene que ser finito o cero, ya que un valor infinito en los acoplos implicaría que los experimentos a baja energía no podrían excitar ningún grado de libertad. En el caso contrario, en el que el punto fijo corresponde a acoplo nulo, a ese punto fijo se le denomina gaussiano, ya que el único término no nulo en el lagrangiano sería el de los términos correspondientes a la energía cinética, de tal forma que la integral de camino de Feynman de la teoría estaría formada por integrales de gaussianas.

Nótese también que hemos podido construir una teoría efectiva que nos da predicciones correctas en buena aproximación, porque hemos fijado como valor de $E_0$ el que se obtiene experimentalmente, y hemos hecho al resto de parámetros correr con el cut-off para que ese valor de $E_0$ se quede fijo. Esta teoría es predictiva porque, una vez fijado $E_0$ a su valor experimental, el resto de infinitas cantidades que te permite calcular la teoría (por ejemplo, probabilidades de encontrar la partícula en tal o cual sitio dadas unas condiciones iniciales) se pueden comparar con lo que nos dicen el resto de datos experimentales (infinitos posibles) y, dentro del régimen en el que la teoría efectiva es una buena aproximación, van a coincidir las predicciones teóricas con los resultados de los experimentos. Pero, si el número de parámetros que hubiéramos necesitado fijar, como nos ha pasado con $E_0$, hubiera sido infinito, entonces la teoría efectiva no habría sido predictiva.

Por tanto, dependiendo de si la teoría efectiva, definida por debajo del cut-off, necesita un número finito de parámetros (como $E_0$ en el ejemplo) o infinito, se dice que esta teoría es renormalizable o no. Ejemplos de teorías renormalizables son las teorías con libertad asintótica (como la del ejemplo que hemos dado y la cromodinámica cuántica), en las que el acoplo se va a cero al hacer crecer el cut-off hacia energías asintóticamente altas (lo que llamamos el ultravioleta), o las teorías que son invariantes de escala (ya acabamos de decir que la del ejemplo, el potencial bidimiensional tipo delta de Dirac, clásicamente lo parece pero cuánticamente no lo es).

En general, en teoría cuántica de campos, para evitar que una teoría efectiva sea no renormalizable, es necesario que sólo haya sumandos en la densidad lagrangiana de la teoría cuyos coeficientes tengan dimensiones que sean potencias no negativas de la masa/energía (en unidades en las que $c=\hbar=1$). En efecto, si alguno de estos coeficientes tuviera alguna potencia negativa, entonces al calcular un diagrama de Feynman con $n$ bucles debidos a esa interacción el resultado sería proporcional a ese coeficiente elevado a $n$. Dado que las amplitudes de probabilidad en mecánica cuántica son adimensionales, eso significa que ese diagrama tiene que ser proporcional a la potencia n-ésima de la energía $E_l$ de las partículas que corren por el bucle, lo que da lugar a una integrales divergente en el ultravioleta, para momento grandes. Se produciría, por tanto, un nuevo tipo de divergencia cada vez añadimos nuevos bucles de partículas para ir a un orden superior en teoría de perturbaciones, resultando en una teoría efectiva que necesita un número infinito de ajustes para hacer predicciones cada vez a más alta energía y, por tanto, sería una teoría no renormalizable. A los términos en la lagrangiana de una teoría cuyos coeficientes tiene dimensiones de potencias negativas de la energía se les denomina irrelevantes, ya que sus efectos sobre las amplitudes de probabilidad se van haciendo cada vez más pequeños a medida que vamos avanzando en el grupo de renormalización, es decir, a medida que nos vamos a energías cada vez más pequeñas (y su valor obtenido mediante el flujo del grupo de renormalización asintóticamente a bajas energías, inluso teniendo en cuenta los efectos cuánticos, está determinado sólo por los acoplos que no son irrelevantes). En cambio, a los que tienen potencias positivas de la energía se les denomina relevantes, y si no tienen dimensiones se les denomina marginales. El acoplo $\tilde{g}$ de nuestro ejemplo de juguete parece clásicamente que que es marginal al hacer el análisis dimensional, pero hemos visto que las correcciones cuánticas hacen que sea relevante (como le ocurre también al acoplo de la cromodinámica cuántica) porque su valor con respecto al del punto fijo se hace más y más grande a medida que disminuimos la energía. Se dice entonces que es marginalmente relevante. En cambio, el acoplo de la electrodinámica cuántica, que también parece marginal clásicamente, en realidad es marginalmente irrelevante, se hace cada vez más grande a medida que aumentamos la energía (exploramos distancias más pequeñas), produciéndose un polo de Landau. Hay que darse cuenta también que, dado que el hecho de que un acoplo sea relevante o no depende del análisis dinensional, esta condición depende de la dimensión del espaciotiempo en el que está definida la teoría cuántica de campos. Por ejemplo, para un campo escalar en (5+1) dimensiones el único término relevante es el que da masa al campo, mientras que en (1+1) dinensiones, el tener ser el campo escalar adimensional, hay infinitos términos marginales diferentes. También es necesario notar que esta relación entre las dimensiones de un acoplo y si son relevantes o no se tiene que hacer poniendo los campos en unas unidades en las que el coeficiente del término cinético sea adinensional.

Repetimos el resultado más importante del párrafo anterior. Si queremos tener una teoría efectiva predictiva, es decir, que las infinitas predicciones de la teoría sean completamente universales y estén bien definidas una vez hemos fijado el valor de un número finito de parámetros relacionados con los órdenes más bajos en teoría de perturbaciones (nivel árbol y unos pocos bucles), una teoría en la que los diagramas con muchos bucles sólo afectan a los resultados (las amplitudes de probabilidad) cambiando su valor pero sin necesitar que redefinamos la teoría desde cero cada vez que aumentamos la precisión con otro bucle, entonces esta teoría tiene que ser renormalizable, la densidad lagrangiana sólo puede tener sumandos cuyos coeficientes tengan dimensiones que sean potencias no negativas en la masa/energía, de tal forma que sean relevantes o marginalmente relevantes. Es importante señalar que, como estos acoplos relevantes tienden a un punto fijo del grupo de renormalización asintóticamente en el UV, toda teoría cuántica de campos renormalizable se puede entender a altas energías como una teoría de campos conforme (CFT) perturbada con términos relevantes (cuyo efecto se va notando más y más a medida que disminuimos la energía y nos vamos a lo que llamamos el infrarrojo). Afortunadamente, en la mayoría de teorías efectivas de interés toda la física a escalas muy por debajo del UV, incluyendo el valor de los acoplos irrelevantes, está codificada por un número finito y pequeño de parámetros relevantes, con lo que asignando a estos el valor que se obtenga en los experimentos de baja energía ya tenemos una teoría que predice todo lo demás que ocurre a esas bajas energías y podemos ignorar los, posiblemente infinitos, acoplos irrelevantes que dependen de la física desconocida que ocurre en el UV.

Por tanto, si la teoría es renormalizable, podemos encontrar también la teoría efectiva a otras escalas de distancia y energía más allá (por encima) del cut-off haciendo correr los acoplos en sentido inverso al del grupo de renormalización, pero siempre sobre la premisa de que la física en lo que llamamos el infrarrojo (IR), por debajo del cut-off, no dependa fuertemente de la física que ocurre muy por encima del cut-off, en lo que llamamos el ultravioleta (UV). A este principio, que se cumple en la mayoría de casos de interés y en el que se basa toda la filosofía de las teorías efectivas, se le llama desacoplo UV/IR. Gracias a él podemos describir la física a grandes distancias (en el IR) sin conocer los detalles de lo que ocurre microscopicamente (en el UV). Es decir, la física a escalas grandes de distancias que te da la teoría efectiva sólo depende de unos pocos parámetros y no de todos los detalles que ocurren en al física microscópica.

De hecho, las teorías cuánticas de campos que nos sirven para describir el mundo de la física de partículas no sólo son perturbaciones de teorías conformes sino que, además, pueden ser descritas mediante el formalismo de la integral de camino de Feynman. Esto implica que el punto fijo del que son perturbaciones es gaussiano. Por ejemplo, en mecánica cuántica de una partícula, que es una teoría de campos en (0+1 dimensiones), en el formalismo de la integral de camino, $$
\hspace{-1cm} U(x_b, t_b; x_a, t_a) = \lim_{N \to \infty} \>
\left (\frac{m}{2 \pi i \epsilon \hbar} \right )^{N/2}
\int_{-\infty}^{+\infty} dx_1 \> dx_2 \> \ldots \> dx_{N-1} \cdot
$$ $$
\cdot \exp \left \{ \frac{i \epsilon}{\hbar} \sum_{j=0}^{N-1} \left [
\frac{m}{2} \left ( \frac{x_{j+1} - x_j}{\epsilon} \right )^2 -
V(x_j) \right ] \> \right \} =
$$ $$
= \int_{x(t_a)=x_a}^{x(t_b)=x_b} {\cal D}x(t) \> e^{i S[x(t)]/\hbar} \> \> .
$$ en la amplitud de transición entre puntos espaciotemporales cercanos domina el término cinético frente al de la energía potencial en el límite en el que hacemos tender el intervalo de tiempo $\epsilon$ a cero, es decir, en el UV (de hecho, el análisis dimensional nos dice en este caso que, da igual qué función se tome para el potencial, este término siempre será relevante y este es el motivo por el que en mecánica cuántuca de una partícula normalmente no aparece divergencias y no es necesario saber nada de renormalización). El caso del ejemplo de juguete de este post es especial porque el potencial no es una función, sino una distribución de tipo delta de Dirac.

Pero es necesario señalar que, incluso aunque la teoría efectiva sea renormalizable y haga predicciones matemáticamente consistentes incluso de qué pasa a medida que vamos aumentando la escala de energía, puede llegar un momento en que, al ir hacia el UV, llegamos a la escala característica en la que se empieza a notar experimentalmente que esa teoría era sólo una aproximación a la realidad y hay que sustituirla por una nueva teoría física, ya que la teoría efectiva no da cuenta de las nuevas partículas y fenómenos que van apareciendo al aumentar la energía. Eso la teoría efectiva no lo ve y la puedes extrapolar ingenuamente si quieres hasta energías tan altas como quieras. Para cualquier cut-off $E_m$, donde debemos suponer que entrará seguramente en juego nueva física desconocida, la teoría renormalizable produce correcciones a los procesos de baja energía que van como $E_m^{-n}$, con $n>0$, de manera que estas correcciones pueden volverse arbitrariamente pequeñas al aumentar $E_m$ tanto como queramos. Si nos olvidamos de la gravedad y de que las teorías cuánticas de campos se rompen como muy tarde a la escala de Planck, la única indicación que tenemos de que esa teoría es efectiva es el flujo del grupo de renormalización: el valor numérico de los parámetros de la teoría cambia al ir cambiando la energía del cut-off. Las teorías con libertad asintótica y las invariantes de escala son ejemplos de este caso. Las teorías con un polo de Landau, como la electrodinámica cuántica, nos indican que hay nueva física sólo a energías exponencialmente altas, con lo que permiten que el cut-off sea exponencialmente alto, mucho más alto que las energía en las que esa teoría ya deja de ser válida (mucho más alto que la escala de unificación electrodébil). La serie perturbativa en electrodinámica cuántica se comporte bien a todos los órdenes en teoría de perturbaciones.

El que las teorías renormalizables sean predictivas viene de haber podido separar la escala de energía en la que estamos interesados (las energías bajas a las que pueden acceder nuestros aceleradores de partículas) de las escalas de alta energía donde casi con certeza entran en juego nuevas partículas y fenómenos físicos desconocidos. El desacoplo IR/UV y la renormalización nos permiten ignorar estas partículas y fenómenos físicos desconocidos que, se espera, haya en las escalas de energía altas a las que no podemos acceder. Pero que podamos ignorarlos no significa que no existan. Eso lo descubriremos cuando podamos acceder experimentalmente a energías más altas. Es decir, este desacoplamiento de las escalas UV/IR nos permite hacer física de partículas con predicciones de gran precisión aunque ignoremos lo que ocurre a alta energía, pero tiene la contra de que, al no afectarnos lo que ocurre al alta energía, entonces no podemos aprender nada sobre ls física en la escala UV inexplorada y desconocida.

Si, por el contrario, la teoría no es renormalizable, entonces, en cuanto intentamos encontrar la teoría efectiva a medida que aumentamos la energía, las correcciones que vienen de la física UV desconocida se hacen grandes y la teoría ya no es predictiva al necesitar infinitos parámetros que ajustar. Esto es así porque, si en una teoría que era renormalizable intentamos añadirle un acoplo irrelevante de valor finito a baja energía, entonces al ir hacia atrás en el flujo del grupo de renormalización (aumentar la energía) nos iremos cada vez más lejos del punto fijo del UV que tenía la teoría renormalizable porque los acoplos irrelevantes se alejarán cada vez más de éste. El resultado de nuestros cálculos dejará de tener sentido físico de la misma manera que, después de multiplicar un número por cero, intentamos volver a tener el número que teníamos inicialmente. El flujo del grupo de renormalización es irreversible. No se puede recuperar la información perdida volviendo al UV. 

Los acoplos irrelevantes de tamaño finito a bajas energías son incosistentes si lo que queremos es una teoría que se pueda extrapolar hasta el UV mandando el cut-off tan arriba como queramos. Sin embargo, en la práctica, los operadores irrelevantes son muy útiles como herramienta en una teoría efectiva de campos de baja energía, siempre y cuando uno no pretenda que sean válidos hasta energías infinitas. Es decir, a energías pequeñas sí podemos seguir usando la teoría no renormalizable como teoría efectiva a grandes distancias (energías pequeñas). Cuando buscamos teorías efectivas que describan la naturaleza a baja energía, e insistimos en quedarnos ahí, en buena aproximación también podemos trabajar con lagrangianos no renormalizables. Sin embargo, al estudiar si algunos procesos son calculables en esta teoría, descubriremos que sólo los procesos en los que las energías de partículas externas sean menores que un cut-off tienen asociadas amplitudes que se comportan bien según la teoría. De hecho, los acoplos dimensionales que suprimen los operadores irrelevantes son una indicación de la escala donde la descripción efectiva de baja energía deja de funcionar. La misma teoría nos está pidiendo especificar alguna nueva física cerca o por encima del cut-off, porque no te deja poner el cut-off tan alto como quieras. En cambio, las teorías con interacciones renormalizables permiten que el cut-off sea arbitrariamente alto.

Es importante remarcar que sólo podemos exigir a las teorías de física de partículas que sean renormalizables si tenemos la creencia irracional de que el universo debe estar descrito por teorías que puedan ser extrapoladas de manera única a energías mucho más altas que aquellas a las que podemos acceder experimentalmente. Pero la naturaleza no tiene que ser como a nosotros nos gustaría que fuera, con lo que también debemos admitir que nuestras teorías efectivas no sea renormalizables y, por tanto, necesiten ser reformuladas y completadas con más ingredientes continuamente al ir cada vez a energías un poco más altas. De hecho, la interacción gravitatoria nos obliga a ello. En el caso de la gravedad cuántica, la cuantización ingenua de la relatividad general da una teoría cuántica de campos efectiva que no es renormalizable y en cuyas predicciones sólo podemos confiar si estamos muy por debajo de la escala de Planck. Esta escala corresponde a unas distancias de unos $10^{-35} m$ y unas energías de unos $10^{19} GeV$ por partícula, energías que están 15 órdenes de magnitud por encima de lo máximo que podemos hacer hoy en día en los aceleradores de partículas y unos 8 órdenes de magnitud por encima de la de los rayos cósmicos más energéticos, algo completamente inaccesible a los experimentos que somos capaces de hacer ahora y, posiblemente, en los de los próximos siglos. Entonces, ¿cómo podemos explorar los efectos cuánticos de la gravedad? No lo sabemos todavía bien, pero tenemos un excelente laboratorio teórico para hacerlo: los agujeros negros, que violan el desacoplo IR/UV, asunto que dejamos para otro post. Aquí simplemente nos quedamos en que es inútil e innecesario forzar a que nuestras teorías cuánticas de campos efectivas sean válidas en todas las escalas de energía, aunque es cierto que las teorías efectivas renormalizables tienen la ventaja de ser más sencillas cuando sea razonable aplicar la navaja de Occam. Sería raro que aparezca nueva física cada vez que aumentemos un poco la energía. Las teorías renormalizables, como el Moledo Estándar de la física de partículas, pueden ser extrapoladas a escalas de energía arbitrariamente altas mientras no aparezca nueva física, pero no pueden incluir gravedad, que inevitablemente parece no renormalizable a bajas energías. Hasta ahora la única teoría cuántica que tenemos, aunque no la conozcamos al completo, que es capaz de describir todos los tipos de partículas y sus interacciones incluyendo la gravedad de forma matemáticamente consistente para cualquier valor de energía es la teoría de cuerdas.

Por último, aclaro que en este post he hablado sólo de las divergencias ultravioletas, porque son precisamente éstas las que constituyen un problema, las que nos están diciendo que ese modelo no es la realidad y que, en el mejor de los casos, a lo máximo que aspira es a ser efectivo a baja energía, a ser un límite de una teoría más precisa. Pero, además de las ultravioletas, también ocurre típicamente en teoría cuántica de campos que aparecen otro tipo de divergencias cuando calculamos amplitudes de probabilidad. Se trata de las divergencias infrarrojas. Éstas surgen al integrar sobre longitudes de onda arbitrariamente largas, es decir, sobre momentos arbitrariamente pequeños. Pero estas divergencias no nos indican que la teoría sea incompleta. La presencia de diagramas de Feynman divergentes de tipo infrarrojo en una teoría cuántica de campos no nos dice que ésta tenga nada incorrecto. Por ejemplo, en electrodinámica cuántica las hay porque es imposible detectar fotones de longitud de onda arbitrariamente larga. Así que las amplitudes de probabilidad que habría que calcular para un experimento real son amplitudes sobre procesos que incluyen un número arbitrario de fotones indetectables por los aparatos. Y en ese cálculo, que es el que tiene significado físico, las divergencias infrarrojas se cancelan. Las divergencias infrarrojas sólo surgen cuando intentamos calcular algo que no tiene significado físico, aunque desde el punto de vista de la teoría, desconectada del experimento, nos parezca muy natural. Al igual que las ultravioletas, surgen de creernos que lo que tenemos en nuestro papel es la realidad, pero en el caso de las infrarrojas ese error es sólo nuestro (le estamos haciendo a la teoría la pregunta equivocada), no lo es también de la teoría, como ocurre en las ultravioleta.

En teoría cuántica de campos, por tanto, las divergencias infrarrojas y las ultravioletas tienen significados muy distintos, y esto es así porque en este marco en el que trabajan los físicos de partículas hay un desacoplo IR/UV, es decir, la física a largas distancias se deriva de la física a cortas distancias, pero no al revés. Sin embargo, hay unos objetos físicos, los agujeros negros, para los cuales hemos descubierto que este desacoplo no se cumple, pero eso da para otro post. 
 
En conclusión, los físicos y las físicas de partículas no restan infinito a infinito para que les salga un resultado finito. Lo que hacen es darse cuenta de que, al igual que la función de onda no es un ente físico, sino que es un objeto matemático que sólo existe en nuestra cabeza y, por eso, puede hacer cosas raras como colapsar más rápido que la luz, lo que teníamos en la cabeza no es la realidad. Si las divergencias que aparecen son infrarrojas, eso lo que nos está diciendo es que no le estamos haciendo a la teoría la pregunta correcta, no estamos calculando algo con significado físico y que se pueda medir. Y si las divergencias son ultravioletas, eso lo que nos está diciendo es que el modelo efectivo que tenemos los científicos en la cabeza no es la realidad. Lo máximo que podemos hacer es ajustarlo para que se parezca lo máximo posible a la realidad. Si hay suerte y la teoría es renormalizable, entonces con un número finito de ajustes es suficiente para producir una teoría sin divergencias y que da predicciones con significado físico para cualquier fenómeno. Es decir, lo más importante aquí es que este ajuste muchas veces se puede hacer de manera que la teoría sea predictiva incluso a energías mucho más altas de las que hemos explorado, y es precisamente el Modelo Estándar de la física de partículas la teoría que ha dado predicciones más precisas y que han concordado con los experimentos realizados a posteriori con un mayor número de cifras significativas de toda la historia de la humanidad.


Sobre el autor: Sergio Montañez Naz es doctor en física teórica y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

Bibliografía

  • Huang (1992), Quarks, Leptons And Gauge Fields, World Scientific, 2nd edition (1992)
  • Landau, L. D. and Lifshitz, E. M. (1992). Mecánica cuántica. Volumen 3 del Curso de Física Teórica. Reverté. Primera edición. Barcelona.
  • de Llano, M., A. Salazar, and M. A. Solís. (2005) "Two-dimensional delta potential wells and condensed-matter physics." Revista mexicana de física 51.6 (2005): 626-632.
  • Motl, L. Diversos posts en el difunto blog The Reference Frame.
  • Nyeo, Su-Long (2000): Regularization methods for delta-function potential in two-dimensional quantum mechanics. American Journal of Physics 68, 571 (2000); doi: 10.1119/1.19485
  • Shomer, Assaf (2007), A Pedagogical explanation for the non-renormalizability of gravity, arXiv:0709.3555 (hep-th).
  • Tong, David: Lectures on Quantum Mechanics






6 jul 2023

El tiempo en física moderna

Dejo aquí el trozo en el que participé en el programa número 20 de la 4ª temporada de La Noche Paradigmática, donde hablé sobre los sorprendentes descubrimientos de la física moderna acerca de la naturaleza del tiempo:
  • Desde que conocemos la física relativista, sabemos que el tiempo está íntimamente ligado al espacio. No se pueden separar.
  • Es una consecuencia de la unión de los principios de la relatividad y la mecánica cuántica que las leyes fundamentales de la naturaleza son invariantes si cambiamos el sentido de la flecha del tiempo, pero también hay que cambiar partícula por antipartícula y derecha por izquierda.
  • El sentido de avance del tiempo no viene de que partamos de una condición inicial caprichosa. No tiene relación con las condiciones iniciales. La flecha termodinámica del tiempo es consecuencia de la flecha lógica del tiempo, no al revés.
  • La flecha lógica del tiempo es también la responsable de que las mediciones en mecánica cuántica sean, a todos los efectos prácticos, irreversibles.

12 jun 2023

No, el examen de Matemáticas de la EvAU no contiene un problema "imposible de resolver".


Escribo este post para manifestar mi disconformidad con los artículos que se han publicado en diversos medios acerca de mi opinión en Twitter sobre el examen de Matemáticas de acceso a la universidad de la Comunidad de Madrid.
 

22 may 2023

Por qué un Bachillerato de Ciencias sin Física no es un bachillerato de ciencias


Durante estos días los distintos centros educativos de Secundaria están definiendo cuál va a ser su oferta académica para el curso 2023-2024. Uno de los asuntos nuevos sobre los que hay que decidir es qué opciones va a dejar cada centro elegir a los estudiantes que entrarán en septiembre en 2° de Bachillerato, ya que en el próximo curso entrará en vigor en ese nivel la nueva ley educativa, la LOMLOE, que deroga la nefasta ley anterior, la LOMCE. Tanto la LOMLOE como la LOMCE permiten a los estudiantes del Bachillerato de Ciencias evitar cursar la asignatura de Física en 2° de Bachillerato, y hay muchos centros educativos (afortunadamente no son los centros en los que he estado en los últimos años) en los que, no sólo se da la opción a los estudiantes de evitar la Física, sino que, además, se les anima a ello, con el argumento de que así el Bachillerato es "más fácil" y que "pueden sacar mejores notas".

En este post voy a tratar de resumir los motivos por los que hacer esto supone engañar a los estudiantes, es perjudicial, no sólo para los que deciden no cursar Física, sino, además, para los que sí deciden cursarla y la justificación de esta decisión errónea que toman algunos centros está basada en un argumento que atenta contra la finalidad del Bachillerato establecida por la ley.

3 may 2023

Tutorial sobre movimientos rectilíneos

Aquí se puede acceder a un tutorial sobre movimientos rectilíneos para 1º de Bachillerato y 4º de ESO creado por mí y que he publicado en Procomún:


Se trata de un tutorial sobre los movimientos rectilíneos adaptado para 1º de Bachillerato y 4º de ESO. Pero también sirve para las asignaturas de Matemáticas de estos dos cursos. El único requisito previo es haber estudiado las Matemáticas de 3º de ESO.

El objetivo de este tutorial es ayudar a los estudiantes a relacionar los movimientos rectilíneos con las funciones y con su representación gráfica. Es decir, relacionar física, álgebra y geometría, ya que habitualmente en clase de Matemáticas se trabaja mucho la relación entre álgebra y geometría que establecieron Descartes y Fermat, pero no se suele trabajar su relación con la cinemática de los movimientos rectilíneos, que se trabaja en clase de Física y Química. Con este tutorial trato que los estudiante construyan este puente entre ambas asignaturas.

Al tratar sobre las conexiones con la geometría, es un reto adaptar este material para los estudiantes con algún tipo de deficiencia visual. Esto lo he hecho, por un lado, añadiendo enlaces en aquellas imágenes que contienen información que no venga en el texto, a vídeos de creación propia en los que se me escucha a mí explicando las imágenes que se pueden entender aunque no se vean éstas.

Y, por otro, añadiendo un script, creado por Juan José del Haro, que permite utilizar un menú en la parte superior de la página con las siguientes herramientas (en el mismo orden en que aparecen) que permiten hacer que el contenido sea más accesible:
  • Selector de fuente: Con el selector de fuente podemos cambiar a una fuente más legible (lato, Montserrat, opensans y roboto). Este selector incluye otros elementos de accesibilidad visual como la fuente Atkinson Hiperlegible y una fuente especial para dislexia
  • Zoom: permite aumentar y disminuir el tamaño de la página o del contenido en el que se está trabajando lo que contribuye a la legibilidad de textos y a la inclusión de estudiantes con dificultades de percepción visual
  • Traductor: permite traducir cualquier texto a la mayor parte de los idiomas utiliza el traductor de google (google translate). Es una herramienta especialmente indicada para la adaptación de los contenidos a estudiantes de otras culturas
  • Lector de textos con voz: permite la reproducción por voz de cualquier texto. Esta herramienta permite la adaptación e inclusión de estudiantes con dificultades de percepción visual
  • Botón flotante: un botón que permite fijar o moverse por la página con el cursor del ratón

20 ene 2023

Segunda Edición de la Olimpiada Científica Turina para estudiantes de 4° de ESO

Ya se ha abierto el plazo para inscribirse en la edición de este año de la Olimpiada Científica Turina para estudiantes de 4° de ESO, que se celebrará el jueves 16 de marzo de 2023 a las 17:00 en el IES Joaquín Turina.
Toda la información y el formulario de inscripción se encuentra en este enlace.