6 sept 2023

Si rompiendo núcleos de átomos obtenemos energía, ¿por qué uniéndolos también?

Conocemos como energía nuclear al uso de reacciones nucleares que liberan energía para generar calor. Básicamente, existen dos formas de liberar energía a partir de los núcleos de los átomos:

  • la fisión nuclear, que es una reacción nuclear o un proceso de desintegración radioactiva en el que el núcleo de un átomo se divide en partes más pequeñas (núcleos más ligeros). Esta energía liberada es la que se usa con frecuencia en turbinas de vapor para producir electricidad en las centrales nucleares.
Dominio público, https://commons.wikimedia.org/w/index.php?curid=486924
  • la fusión nuclear, que es una reacción en la que dos núcleos atómicos se fusionan para formar un núcleo más pesado. Los reactores de fusión nuclear aún no son económicamente viables, pero esta tecnología se encuentra actualmente en investigación y podría ser viable en algunas décadas.
Deuterium-tritium fusion.svg
Por Wykis - Trabajo propio, basado en w:File:D-t-fusion.png, Dominio público, https://commons.wikimedia.org/w/index.php?curid=2069575

Si dividir un núcleo en dos núcleos más pequeños libera energía, parecería que combinar dos núcleos más pequeños en un núcleo más grande requeriría energía, no liberarla, porque es el proceso inverso. Con la fisión nuclear obtenemos energía en las centrales nucleares rompiendo núcleos. Con la fusión, obtenemos energía uniéndolos, que es lo contrario. Pero el inverso de un proceso exotérmico es un proceso endotérmico, no obtienes energía, la pierdes. Acabamos de experimentar lo que se denomina un conflicto cognitivo


¿Cómo es esto posible? Eso es lo que vamos a intentar explicar en este post a un nivel de bachillerato.

12 jul 2023

No es verdad que los físicos restemos infinito a infinito


"A los físicos, mientras funcione, llámale lo que quieras. ¿Delta de Dirac como función? Dale. ¿El cálculo te da infinito? Pues réstale infinito y ya". Es posible que hayas oído o leído en Twitter algún comentario parecido a éste. De alguna manera se ha instalado en el imaginario colectivo que la física es como el "lado oscuro" de las ciencias exactas y que los métodos poco rigurosos que practicamos los físicos pervierten a los jóvenes desviándolos del camino correcto, el de la matemática pura e inmaculada.


Sin embargo, como ya he explicado en otro post, las matemáticas no sólo tienen las dos caras de las que tradicionalmente nos han hablado, el álgebra y la geometría, sino que los conceptos matemáticos tienen también típicamente un significado físico (en modelos que se pueden aplicar a nuestro universo o no) que no se debe ignorar ni cuando aprendemos matemáticas ni cuando hacemos investigación puntera en matemática moderna. Mucho más que el rigor, es la interacción entre álgebra, geometría y física la que da a las matemáticas toda la potencia que tienen, y esto ha sido así ya desde tiempos de Descartes y Fermat. Pero es que, además, hay veces en las que se acusa a los físicos de ser demasiado poco rigurosos injustamente. Un ejemplo de esto es lo que ocurre con la renormalización en teorías efectivas.


Para ilustrarlo sin tener que irme a la teoría cuántica de campos, disciplina que muy pocos físicos, entre los que yo no estoy, dominan realmente, voy a poner un ejemplo de mecánica cuántica básica que se estudia en el grado de Física. Supongamos una partícula cuántica que se mueve en un mundo de dos dimensiones. Vamos a denotar su posición en coordenadas polares como $(r,\phi)$. Supongamos que esta partícula está sometida a un pozo de energía potencial que toma un valor constante negativo $-U_0$ dentro del círculo $r<a$, pero que se anula si $r>a$.

En ese caso, la mecánica cuántica nos dice que, si la energía $E$ de la partícula es positiva, entonces esta energía no está cuantizada, sino que puede tomar cualquier valor real positivo y la partícula se va a poder mover por todo el plano. Pero, si $E<0$, entonces sólo están permitidos algunos valores discretos concretos de la energía, que se corresponden con estados ligados de la partícula en los que la función de onda de la partícula sólo toma valores no despreciables dentro del círculo o, si es fuera, cerca de éste, ya que para $r<0$ la función de onda decae como una exponencial a medida que nos alejamos del círculo.
Supongamos, además, que $a$ es muy pequeño comparado con las distancias que somos capaces de medir. Se puede demostrar entonces [LSS2005] que, al ser $a$ pequeño, incluso aunque la profundidad del pozo $U_0$ sea muy pequeña, siempre va a haber algún estado ligado, algún estado con energía $E<0$. Cuando la cantidad adimensional
$\tilde{g}= \frac{ m \pi U_0 a^2}{\hbar^2}$
es mucho más pequeña que uno, el estado fundamental tiene aproximadamente una energía
$E_0=-\frac{\hbar^2}{2ma^2} \exp \left(  -\frac{2\hbar^2}{mU_0a^2}  \right)$
Como $\tilde{g}<1$, se tiene que $| E_0 |<\frac{\hbar^2}{2ma^2}$, y no hay estados excitados (en cuando excitamos a la partícula para que vaya a un nivel más alto que el fundamental ésta ya tendría energía positiva y escaparía del pozo).

Pero, ¿qué pasa si no somos capaces de explorar distancias tan pequeñas como $a$, que es lo que nos pasa ahora mismo con los aceleradores de partículas actuales? En ese caso, al hacer física, no vamos a poder describir la energía potencial a la que está sometida la partícula mediante ninguna función que describa la forma microscópica que tiene el pozo. En este mundo de juguete que estoy tomando como ejemplo los físicos sabemos, porque lo medimos experimentalmente, que la partícula tiene un estado ligado con energía negativa $E_0$ (un número que nos dan los experimentos). Pero no sabemos si el potencial al que está sometida la partícula es cuadrado o si tiene otra forma. No tenemos ningún indicio de que el pozo tenga grosor, así que se nos puede ocurrir describir este pozo mediante una delta de Dirac, que es una distribución matemática infinitamente estrecha. En efecto, como la delta de Dirac se puede definir como el límite, cuando $a \to 0$ de una función que vale $\frac{1}{\pi a^2}$ dentro del círculo, y que se anula fuera, el potencial al que está sometida la partícula se puede aproximar, siempre que no exploremos distancias más pequeñas o del orden de $a$ , por
$U(r,\phi)\simeq -\frac{\hbar^2\tilde{g}}{2 \pi r m}\delta(r)$ 

Sin embargo, si nos da por tratar de resolver la ecuación de Schrödinger independiente del tiempo para la partícula sometida a ese potencial tipo delta de Dirac
$\left( \frac{\hbar^2}{2m} \nabla^2 -\frac{\hbar^2 \tilde{g}}{2 \pi r m}\delta(r) \right) \psi(r,\phi)=E \psi(r,\phi) $
al pasar al espacio de momentos
$ \frac{p^2}{2m} \tilde{\psi}(p) -\frac{\pi a^2 U_0}{2 \pi }\psi(r=0)=E \tilde{\psi}(p)$
se obtiene una ecuación inconsistente a no ser que
$\frac{1}{\tilde{g}}=\frac{1}{2\pi m} \int_0^\infty dp \frac{p}{\frac{p^2}{2m}-E_0} $
ecuación que no se puede cumplir porque la integral es divergente.

Repito lo que está ocurriendo. Los físicos hemos hecho un modelo para explicar el comportamiento de una partícula que sabemos que tiene un estado ligado en un pozo que ni siquiera sabemos si tiene anchura. Este modelo consiste un un potencial de tipo delta de Dirac. Sin embargo, haciendo cálculos para que el modelo sea consistente, nos sale que el parámetro que tiene el modelo, el factor $ \frac{1}{\tilde{g}} $, diverge, se hace infinito. Tenemos un problema bastante grande, ¿verdad?


Pues bien, un problema parecido lo tienen de forma rutinaria todos los físicos y las físicas de partículas. Éstos trabajan siempre con teorías cuánticas de campos, que son teorías cuánticas en los que hay uno o varios osciladores (bosónicos y/o fermiónicos) en cada punto del espacio y acoplados entre ellos. Y resulta que, incluso en la teorías cuánticas de campos más simples, casi cualquier cálculo que se haga que tenga en cuenta efectos cuánticos da como resultado una integral en cantidades de movimiento que diverge. Y, ¿qué es lo que hacen estas señoras y estos señores para resolverlo? ¿Le restan a $1/\tilde{g}$, que sale infinito, otro infinito para que salga un resultado finito como critican algunas personas que han estudiado poca física? No. Lo que hacen es darse cuenta de que, al poner los límites de la integral en la cantidad de movimiento entre cero e infinito, se han ido más allá del rango de validez de su modelo. No podemos considerar en nuestro modelo momentos demasiado grandes, porque eso significaría, por la mecánica cuántica, que estamos explorando distancias $h/p$ mas pequeñas que $a$, y para esas distancias ya se nota que el potencial que hay realmente no era una delta de Dirac. Pero, claro, ni saben lo que vale la anchura $a$ ni saben qué forma tiene el pozo. Así que, para evitar hacerlo mal, los físicos y las físicas de partículas ponen a mano un valor máximo, un cut-off en el momento. Es decir, en vez de integrar hasta infinito, integran hasta un valor máximo
$p_{m}<h/a$,
En realidad, todas las teorías cuánticas de campos de interés en física son realmente teorías efectivas, aproximaciones a baja energía de una teoría más completa, con lo que es necesario establecer un cut-off en el momento en todas ellas. Incluso en las teorías cuánticas de campos libres (en las que los campos no interaccionan entra sí), que son las más sencillas que hay, tenemos un oscilador en cada punto del espacio. Estrictamente dentro de esa teoría cuántica de campos podemos excitar este grado de libertad a energías arbitrariamente altas. Pero no nos podemos olvidar de que toda la materia y energía del universo está sometida a la interacción gravitatoria y, una vez que tenemos en cuenta la gravedad, seguro que esa teoría cuántica de campos deja de ser una descripción válida en alguna escala en la cantidad de movimiento antes de llegar a la escala de Planck, porque cuando se concentra suficiente densidad de energía en una región pequeña del espacio, ésta colapsará para formar un agujero negro, con lo que no es posible excitar esos osciladores a energías tan altas como se quiera sin salirnos de la teoría cuántica de campos. Como muy tarde, a la escala de Planck la teoría cuántica de campos tiene que dejar sí o sí de ser una buena aproximación al comportamiento de la naturaleza.

En el modelo de juguete de mecánica cuántica de una partícula que nos atañe, al introducir el cut-off $p_m$ en el momento se obtiene
$ \frac{1}{\tilde{g}}=\frac{1}{2\pi } \left[ \log \left( \frac{p_m^2/(2m)}{|E_0|}+1 \right) \right]$
En esta ecuación se puede ver que, para no salirnos del régimen de $\tilde{g}<<1$ en el que estamos trabajando y, a la vez, poder ver el estado ligado de energía negativa $E_0$ con nuestra teoría efectiva de bajo momento, el cut-off $p_m$ en el momento tiene que cumplir:
$|E_0|<\frac{p_m^2}{2m}<\frac{\hbar^2}{2ma^2}$
con lo que podemos escribir la siguiente expresión para el parámetro de nuestro modelo efectivo
$ \frac{1}{\tilde{g}}=\frac{1}{2\pi } \log \left( \frac{p_m^2/(2m)}{|E_0|} \right) $
Pero, claro está, el valor concreto del cut-off $p_m$ es arbitrario, lo hemos introducido a mano. ¿Eso es ser poco riguroso? No. Podemos definir nuestra teoría efectiva (la teoría en la que la partícula interacciona con la delta de Dirac en este caso) para cualquier cut-off que esté en el intervalo anterior y hemos cogido un valor dentro de ese intervalo. Eso se puede hacer.

Pero, ¿qué hacemos ahora? ¿Mandamos el cut-off a infinito y, al mismo tiempo, $\frac{1}{ \tilde{g} }$ también a infinito de tal manera que $|E_0|$ se mantenga finito e igual a la cantidad que se mide experimentalmente? Aunque muchos físicos de partículas abusan del lenguaje y dicen que, al renormalizar una teoría, es esto lo que hacen, en realidad lo que están haciendo es darse cuenta de que $p_m$ y $\tilde{g}$ no son cantidades que existen en la naturaleza. Son magnitudes inventadas por nosotros. Las hemos creado para poder construir la teoría efectiva (ya que la forma concreta del potencial que hay en la naturaleza a nivel microscópico, que es un potencial cuadrado en este caso, es desconocida). La teoría o modelo efectivo que nos hemos inventado consiste en un potencial delta de Dirac. $\tilde{g}$ nos da el acoplo de la partícula con una delta de Dirac que no existe, y $p_m$ el momento máximo que puedo considerar en esa teoría efectiva sin que ésta deje de ser una buena aproximación a la realidad.

Como $\tilde{g}$ y $p_m$ son magnitudes que no existen, les puedo dar el valor que quiera dentro de los rangos descritos arriba, pero no de cualquier forma. Sus valores tienen que estar relacionados mediante la última ecuación que hemos puesto, ecuación que nos dice cómo corre el acoplo $ \tilde{g} $ a medida que vamos aumentando $p_m$. Lo que creíamos que son constantes de la naturaleza, en realidad dependen de la escala de distancias a las cuales se está explorando la naturaleza. A esta variación del acoplo con la escala de distancia, es decir, momento (o energía), con la que estamos trabajando se denomina flujo del grupo de renormalización, y es una característica propia que tienen las teorías efectivas, desde el modelo de juguete que acabamos de describir hasta el mismo Modelo Estándar de la física de partículas, característica que entendemos perfectamente desde los trabajos de Kenneth Wilson y colaboradores en los años 70 del pasado siglo. Nótese que el nombre "grupo" aquí no es muy afortunado ya que, en matemáticas, un grupo es un conjunto de transformaciones en el que todas tienen transformación inversa. Sin embargo, al estudiar cómo varían los coeficientes del lagrangiano o del hamiltoniano de una teoría al disminuir el cut-off (lo que se denomina integrating out a momentum shell) lo que estamos haciendo es llevar a cabo un proceso irreversible en el que nos estamos olvidando los detalles microscópicos que sólo pueden detectarse con momentos más altos que el cut-off. Un nombre más adecuado sería el de "monoide de renormalización" o, si además surpriminos el elemento neutro (la transformación "no hacer nada"), entonces el nombre correcto sería "semigrupo de renormalización". 

Nótese que, en el ejemplo de juguete que hemos puesto, la teoría efectiva no tenía ninguna escala de distancia o momento, ya que la ecuación de Schrödinger de una partícula sometida a un potencial delta de Dirac en dos dimensiones se queda igual si multiplicamos todas las distancias por el mismo factor. Sin embargo, a través del grupo de renormalización, la escala de distancias $h/\sqrt{2m|E_0|} $, que da el orden de magnitud de la anchura de la función de onda en la teoría microscópica, surge dinámicamente en la teoría efectiva. Una cosa parecida ocurre en la cromodinámica cuántica, donde, aunque los quarks no tuvieran masa, tampoco es invariante de escala por ese motivo. A este fenómeno, en el que aparece una escala a partir de un acoplo en una teoría que parecía invariante de escala se le denomina transmutación dimensional.

Para que una teoría no tenga ninguna escala es necesario, no sólo que su lagrangiano a nivel clásico no la tenga, sino también que esta invarianca de escala se mantenga también al tener en cuenta los efectos cuánticos. A las teorías así, si son también relativistas, se las denomina teorías de campos conformes (Conformal Fiel Theories, CFT), ya que ahí la invariancia de escala se junta con el grupo de Poincaré para formar el grupo conforme.

De lo dicho en el anterior párrafo se desprende que, para que una teoría cuántica de campos sea conforme hace falta que los acoplos tomen un valor correspondiente a un punto fijo de grupo de renormalización, es decir, que este valor de los acoplos sea tal que no cambia al aplicarle el flujo del grupo de renormalización. La derivada de los acoplos con respecto al cut-off tiene que ser cero para ese valor concreto. Para que ese punto fijo no sea trivial, este valor donde la derivada es nula tiene que ser finito o cero, ya que un valor infinito en los acoplos implicaría que los experimentos a baja energía no podrían excitar ningún grado de libertad. En el caso contrario, en el que el punto fijo corresponde a acoplo nulo, a ese punto fijo se le denomina gaussiano, ya que el único término no nulo en el lagrangiano sería el de los términos correspondientes a la energía cinética, de tal forma que la integral de camino de Feynman de la teoría estaría formada por integrales de gaussianas.

Nótese también que hemos podido construir una teoría efectiva que nos da predicciones correctas en buena aproximación, porque hemos fijado como valor de $E_0$ el que se obtiene experimentalmente, y hemos hecho al resto de parámetros correr con el cut-off para que ese valor de $E_0$ se quede fijo. Esta teoría es predictiva porque, una vez fijado $E_0$ a su valor experimental, el resto de infinitas cantidades que te permite calcular la teoría (por ejemplo, probabilidades de encontrar la partícula en tal o cual sitio dadas unas condiciones iniciales) se pueden comparar con lo que nos dicen el resto de datos experimentales (infinitos posibles) y, dentro del régimen en el que la teoría efectiva es una buena aproximación, van a coincidir las predicciones teóricas con los resultados de los experimentos. Pero, si el número de parámetros que hubiéramos necesitado fijar, como nos ha pasado con $E_0$, hubiera sido infinito, entonces la teoría efectiva no habría sido predictiva.

Por tanto, dependiendo de si la teoría efectiva, definida por debajo del cut-off, necesita un número finito de parámetros (como $E_0$ en el ejemplo) o infinito, se dice que esta teoría es renormalizable o no. Ejemplos de teorías renormalizables son las teorías con libertad asintótica (como la del ejemplo que hemos dado y la cromodinámica cuántica), en las que el acoplo se va a cero al hacer crecer el cut-off hacia energías asintóticamente altas (lo que llamamos el ultravioleta), o las teorías que son invariantes de escala (ya acabamos de decir que la del ejemplo, el potencial bidimiensional tipo delta de Dirac, clásicamente lo parece pero cuánticamente no lo es).

En general, en teoría cuántica de campos, para evitar que una teoría efectiva sea no renormalizable, es necesario que sólo haya sumandos en la densidad lagrangiana de la teoría cuyos coeficientes tengan dimensiones que sean potencias no negativas de la masa/energía (en unidades en las que $c=\hbar=1$). En efecto, si alguno de estos coeficientes tuviera alguna potencia negativa, entonces al calcular un diagrama de Feynman con $n$ bucles debidos a esa interacción el resultado sería proporcional a ese coeficiente elevado a $n$. Dado que las amplitudes de probabilidad en mecánica cuántica son adimensionales, eso significa que ese diagrama tiene que ser proporcional a la potencia n-ésima de la energía $E_l$ de las partículas que corren por el bucle, lo que da lugar a una integrales divergente en el ultravioleta, para momento grandes. Se produciría, por tanto, un nuevo tipo de divergencia cada vez añadimos nuevos bucles de partículas para ir a un orden superior en teoría de perturbaciones, resultando en una teoría efectiva que necesita un número infinito de ajustes para hacer predicciones cada vez a más alta energía y, por tanto, sería una teoría no renormalizable. A los términos en la lagrangiana de una teoría cuyos coeficientes tiene dimensiones de potencias negativas de la energía se les denomina irrelevantes, ya que sus efectos sobre las amplitudes de probabilidad se van haciendo cada vez más pequeños a medida que vamos avanzando en el grupo de renormalización, es decir, a medida que nos vamos a energías cada vez más pequeñas (y su valor obtenido mediante el flujo del grupo de renormalización asintóticamente a bajas energías, inluso teniendo en cuenta los efectos cuánticos, está determinado sólo por los acoplos que no son irrelevantes). En cambio, a los que tienen potencias positivas de la energía se les denomina relevantes, y si no tienen dimensiones se les denomina marginales. El acoplo $\tilde{g}$ de nuestro ejemplo de juguete parece clásicamente que que es marginal al hacer el análisis dimensional, pero hemos visto que las correcciones cuánticas hacen que sea relevante (como le ocurre también al acoplo de la cromodinámica cuántica) porque su valor con respecto al del punto fijo se hace más y más grande a medida que disminuimos la energía. Se dice entonces que es marginalmente relevante. En cambio, el acoplo de la electrodinámica cuántica, que también parece marginal clásicamente, en realidad es marginalmente irrelevante, se hace cada vez más grande a medida que aumentamos la energía (exploramos distancias más pequeñas), produciéndose un polo de Landau. Hay que darse cuenta también que, dado que el hecho de que un acoplo sea relevante o no depende del análisis dinensional, esta condición depende de la dimensión del espaciotiempo en el que está definida la teoría cuántica de campos. Por ejemplo, para un campo escalar en (5+1) dimensiones el único término relevante es el que da masa al campo, mientras que en (1+1) dinensiones, el tener ser el campo escalar adimensional, hay infinitos términos marginales diferentes. También es necesario notar que esta relación entre las dimensiones de un acoplo y si son relevantes o no se tiene que hacer poniendo los campos en unas unidades en las que el coeficiente del término cinético sea adinensional.

Repetimos el resultado más importante del párrafo anterior. Si queremos tener una teoría efectiva predictiva, es decir, que las infinitas predicciones de la teoría sean completamente universales y estén bien definidas una vez hemos fijado el valor de un número finito de parámetros relacionados con los órdenes más bajos en teoría de perturbaciones (nivel árbol y unos pocos bucles), una teoría en la que los diagramas con muchos bucles sólo afectan a los resultados (las amplitudes de probabilidad) cambiando su valor pero sin necesitar que redefinamos la teoría desde cero cada vez que aumentamos la precisión con otro bucle, entonces esta teoría tiene que ser renormalizable, la densidad lagrangiana sólo puede tener sumandos cuyos coeficientes tengan dimensiones que sean potencias no negativas en la masa/energía, de tal forma que sean relevantes o marginalmente relevantes. Es importante señalar que, como estos acoplos relevantes tienden a un punto fijo del grupo de renormalización asintóticamente en el UV, toda teoría cuántica de campos renormalizable se puede entender a altas energías como una teoría de campos conforme (CFT) perturbada con términos relevantes (cuyo efecto se va notando más y más a medida que disminuimos la energía y nos vamos a lo que llamamos el infrarrojo). Afortunadamente, en la mayoría de teorías efectivas de interés toda la física a escalas muy por debajo del UV, incluyendo el valor de los acoplos irrelevantes, está codificada por un número finito y pequeño de parámetros relevantes, con lo que asignando a estos el valor que se obtenga en los experimentos de baja energía ya tenemos una teoría que predice todo lo demás que ocurre a esas bajas energías y podemos ignorar los, posiblemente infinitos, acoplos irrelevantes que dependen de la física desconocida que ocurre en el UV.

Por tanto, si la teoría es renormalizable, podemos encontrar también la teoría efectiva a otras escalas de distancia y energía más allá (por encima) del cut-off haciendo correr los acoplos en sentido inverso al del grupo de renormalización, pero siempre sobre la premisa de que la física en lo que llamamos el infrarrojo (IR), por debajo del cut-off, no dependa fuertemente de la física que ocurre muy por encima del cut-off, en lo que llamamos el ultravioleta (UV). A este principio, que se cumple en la mayoría de casos de interés y en el que se basa toda la filosofía de las teorías efectivas, se le llama desacoplo UV/IR. Gracias a él podemos describir la física a grandes distancias (en el IR) sin conocer los detalles de lo que ocurre microscopicamente (en el UV). Es decir, la física a escalas grandes de distancias que te da la teoría efectiva sólo depende de unos pocos parámetros y no de todos los detalles que ocurren en al física microscópica.

De hecho, las teorías cuánticas de campos que nos sirven para describir el mundo de la física de partículas no sólo son perturbaciones de teorías conformes sino que, además, pueden ser descritas mediante el formalismo de la integral de camino de Feynman. Esto implica que el punto fijo del que son perturbaciones es gaussiano. Por ejemplo, en mecánica cuántica de una partícula, que es una teoría de campos en (0+1 dimensiones), en el formalismo de la integral de camino, $$
\hspace{-1cm} U(x_b, t_b; x_a, t_a) = \lim_{N \to \infty} \>
\left (\frac{m}{2 \pi i \epsilon \hbar} \right )^{N/2}
\int_{-\infty}^{+\infty} dx_1 \> dx_2 \> \ldots \> dx_{N-1} \cdot
$$ $$
\cdot \exp \left \{ \frac{i \epsilon}{\hbar} \sum_{j=0}^{N-1} \left [
\frac{m}{2} \left ( \frac{x_{j+1} - x_j}{\epsilon} \right )^2 -
V(x_j) \right ] \> \right \} =
$$ $$
= \int_{x(t_a)=x_a}^{x(t_b)=x_b} {\cal D}x(t) \> e^{i S[x(t)]/\hbar} \> \> .
$$ en la amplitud de transición entre puntos espaciotemporales cercanos domina el término cinético frente al de la energía potencial en el límite en el que hacemos tender el intervalo de tiempo $\epsilon$ a cero, es decir, en el UV (de hecho, el análisis dimensional nos dice en este caso que, da igual qué función se tome para el potencial, este término siempre será relevante y este es el motivo por el que en mecánica cuántuca de una partícula normalmente no aparece divergencias y no es necesario saber nada de renormalización). El caso del ejemplo de juguete de este post es especial porque el potencial no es una función, sino una distribución de tipo delta de Dirac.

Pero es necesario señalar que, incluso aunque la teoría efectiva sea renormalizable y haga predicciones matemáticamente consistentes incluso de qué pasa a medida que vamos aumentando la escala de energía, puede llegar un momento en que, al ir hacia el UV, llegamos a la escala característica en la que se empieza a notar experimentalmente que esa teoría era sólo una aproximación a la realidad y hay que sustituirla por una nueva teoría física, ya que la teoría efectiva no da cuenta de las nuevas partículas y fenómenos que van apareciendo al aumentar la energía. Eso la teoría efectiva no lo ve y la puedes extrapolar ingenuamente si quieres hasta energías tan altas como quieras. Para cualquier cut-off $E_m$, donde debemos suponer que entrará seguramente en juego nueva física desconocida, la teoría renormalizable produce correcciones a los procesos de baja energía que van como $E_m^{-n}$, con $n>0$, de manera que estas correcciones pueden volverse arbitrariamente pequeñas al aumentar $E_m$ tanto como queramos. Si nos olvidamos de la gravedad y de que las teorías cuánticas de campos se rompen como muy tarde a la escala de Planck, la única indicación que tenemos de que esa teoría es efectiva es el flujo del grupo de renormalización: el valor numérico de los parámetros de la teoría cambia al ir cambiando la energía del cut-off. Las teorías con libertad asintótica y las invariantes de escala son ejemplos de este caso. Las teorías con un polo de Landau, como la electrodinámica cuántica, nos indican que hay nueva física sólo a energías exponencialmente altas, con lo que permiten que el cut-off sea exponencialmente alto, mucho más alto que las energía en las que esa teoría ya deja de ser válida (mucho más alto que la escala de unificación electrodébil). La serie perturbativa en electrodinámica cuántica se comporte bien a todos los órdenes en teoría de perturbaciones.

El que las teorías renormalizables sean predictivas viene de haber podido separar la escala de energía en la que estamos interesados (las energías bajas a las que pueden acceder nuestros aceleradores de partículas) de las escalas de alta energía donde casi con certeza entran en juego nuevas partículas y fenómenos físicos desconocidos. El desacoplo IR/UV y la renormalización nos permiten ignorar estas partículas y fenómenos físicos desconocidos que, se espera, haya en las escalas de energía altas a las que no podemos acceder. Pero que podamos ignorarlos no significa que no existan. Eso lo descubriremos cuando podamos acceder experimentalmente a energías más altas. Es decir, este desacoplamiento de las escalas UV/IR nos permite hacer física de partículas con predicciones de gran precisión aunque ignoremos lo que ocurre a alta energía, pero tiene la contra de que, al no afectarnos lo que ocurre al alta energía, entonces no podemos aprender nada sobre ls física en la escala UV inexplorada y desconocida.

Si, por el contrario, la teoría no es renormalizable, entonces, en cuanto intentamos encontrar la teoría efectiva a medida que aumentamos la energía, las correcciones que vienen de la física UV desconocida se hacen grandes y la teoría ya no es predictiva al necesitar infinitos parámetros que ajustar. Esto es así porque, si en una teoría que era renormalizable intentamos añadirle un acoplo irrelevante de valor finito a baja energía, entonces al ir hacia atrás en el flujo del grupo de renormalización (aumentar la energía) nos iremos cada vez más lejos del punto fijo del UV que tenía la teoría renormalizable porque los acoplos irrelevantes se alejarán cada vez más de éste. El resultado de nuestros cálculos dejará de tener sentido físico de la misma manera que, después de multiplicar un número por cero, intentamos volver a tener el número que teníamos inicialmente. El flujo del grupo de renormalización es irreversible. No se puede recuperar la información perdida volviendo al UV. 

Los acoplos irrelevantes de tamaño finito a bajas energías son incosistentes si lo que queremos es una teoría que se pueda extrapolar hasta el UV mandando el cut-off tan arriba como queramos. Sin embargo, en la práctica, los operadores irrelevantes son muy útiles como herramienta en una teoría efectiva de campos de baja energía, siempre y cuando uno no pretenda que sean válidos hasta energías infinitas. Es decir, a energías pequeñas sí podemos seguir usando la teoría no renormalizable como teoría efectiva a grandes distancias (energías pequeñas). Cuando buscamos teorías efectivas que describan la naturaleza a baja energía, e insistimos en quedarnos ahí, en buena aproximación también podemos trabajar con lagrangianos no renormalizables. Sin embargo, al estudiar si algunos procesos son calculables en esta teoría, descubriremos que sólo los procesos en los que las energías de partículas externas sean menores que un cut-off tienen asociadas amplitudes que se comportan bien según la teoría. De hecho, los acoplos dimensionales que suprimen los operadores irrelevantes son una indicación de la escala donde la descripción efectiva de baja energía deja de funcionar. La misma teoría nos está pidiendo especificar alguna nueva física cerca o por encima del cut-off, porque no te deja poner el cut-off tan alto como quieras. En cambio, las teorías con interacciones renormalizables permiten que el cut-off sea arbitrariamente alto.

Es importante remarcar que sólo podemos exigir a las teorías de física de partículas que sean renormalizables si tenemos la creencia irracional de que el universo debe estar descrito por teorías que puedan ser extrapoladas de manera única a energías mucho más altas que aquellas a las que podemos acceder experimentalmente. Pero la naturaleza no tiene que ser como a nosotros nos gustaría que fuera, con lo que también debemos admitir que nuestras teorías efectivas no sea renormalizables y, por tanto, necesiten ser reformuladas y completadas con más ingredientes continuamente al ir cada vez a energías un poco más altas. De hecho, la interacción gravitatoria nos obliga a ello. En el caso de la gravedad cuántica, la cuantización ingenua de la relatividad general da una teoría cuántica de campos efectiva que no es renormalizable y en cuyas predicciones sólo podemos confiar si estamos muy por debajo de la escala de Planck. Esta escala corresponde a unas distancias de unos $10^{-35} m$ y unas energías de unos $10^{19} GeV$ por partícula, energías que están 15 órdenes de magnitud por encima de lo máximo que podemos hacer hoy en día en los aceleradores de partículas y unos 8 órdenes de magnitud por encima de la de los rayos cósmicos más energéticos, algo completamente inaccesible a los experimentos que somos capaces de hacer ahora y, posiblemente, en los de los próximos siglos. Entonces, ¿cómo podemos explorar los efectos cuánticos de la gravedad? No lo sabemos todavía bien, pero tenemos un excelente laboratorio teórico para hacerlo: los agujeros negros, que violan el desacoplo IR/UV, asunto que dejamos para otro post. Aquí simplemente nos quedamos en que es inútil e innecesario forzar a que nuestras teorías cuánticas de campos efectivas sean válidas en todas las escalas de energía, aunque es cierto que las teorías efectivas renormalizables tienen la ventaja de ser más sencillas cuando sea razonable aplicar la navaja de Occam. Sería raro que aparezca nueva física cada vez que aumentemos un poco la energía. Las teorías renormalizables, como el Moledo Estándar de la física de partículas, pueden ser extrapoladas a escalas de energía arbitrariamente altas mientras no aparezca nueva física, pero no pueden incluir gravedad, que inevitablemente parece no renormalizable a bajas energías. Hasta ahora la única teoría cuántica que tenemos, aunque no la conozcamos al completo, que es capaz de describir todos los tipos de partículas y sus interacciones incluyendo la gravedad de forma matemáticamente consistente para cualquier valor de energía es la teoría de cuerdas.

Por último, aclaro que en este post he hablado sólo de las divergencias ultravioletas, porque son precisamente éstas las que constituyen un problema, las que nos están diciendo que ese modelo no es la realidad y que, en el mejor de los casos, a lo máximo que aspira es a ser efectivo a baja energía, a ser un límite de una teoría más precisa. Pero, además de las ultravioletas, también ocurre típicamente en teoría cuántica de campos que aparecen otro tipo de divergencias cuando calculamos amplitudes de probabilidad. Se trata de las divergencias infrarrojas. Éstas surgen al integrar sobre longitudes de onda arbitrariamente largas, es decir, sobre momentos arbitrariamente pequeños. Pero estas divergencias no nos indican que la teoría sea incompleta. La presencia de diagramas de Feynman divergentes de tipo infrarrojo en una teoría cuántica de campos no nos dice que ésta tenga nada incorrecto. Por ejemplo, en electrodinámica cuántica las hay porque es imposible detectar fotones de longitud de onda arbitrariamente larga. Así que las amplitudes de probabilidad que habría que calcular para un experimento real son amplitudes sobre procesos que incluyen un número arbitrario de fotones indetectables por los aparatos. Y en ese cálculo, que es el que tiene significado físico, las divergencias infrarrojas se cancelan. Las divergencias infrarrojas sólo surgen cuando intentamos calcular algo que no tiene significado físico, aunque desde el punto de vista de la teoría, desconectada del experimento, nos parezca muy natural. Al igual que las ultravioletas, surgen de creernos que lo que tenemos en nuestro papel es la realidad, pero en el caso de las infrarrojas ese error es sólo nuestro (le estamos haciendo a la teoría la pregunta equivocada), no lo es también de la teoría, como ocurre en las ultravioleta.

En teoría cuántica de campos, por tanto, las divergencias infrarrojas y las ultravioletas tienen significados muy distintos, y esto es así porque en este marco en el que trabajan los físicos de partículas hay un desacoplo IR/UV, es decir, la física a largas distancias se deriva de la física a cortas distancias, pero no al revés. Sin embargo, hay unos objetos físicos, los agujeros negros, para los cuales hemos descubierto que este desacoplo no se cumple, pero eso da para otro post. 
 
En conclusión, los físicos y las físicas de partículas no restan infinito a infinito para que les salga un resultado finito. Lo que hacen es darse cuenta de que, al igual que la función de onda no es un ente físico, sino que es un objeto matemático que sólo existe en nuestra cabeza y, por eso, puede hacer cosas raras como colapsar más rápido que la luz, lo que teníamos en la cabeza no es la realidad. Si las divergencias que aparecen son infrarrojas, eso lo que nos está diciendo es que no le estamos haciendo a la teoría la pregunta correcta, no estamos calculando algo con significado físico y que se pueda medir. Y si las divergencias son ultravioletas, eso lo que nos está diciendo es que el modelo efectivo que tenemos los científicos en la cabeza no es la realidad. Lo máximo que podemos hacer es ajustarlo para que se parezca lo máximo posible a la realidad. Si hay suerte y la teoría es renormalizable, entonces con un número finito de ajustes es suficiente para producir una teoría sin divergencias y que da predicciones con significado físico para cualquier fenómeno. Es decir, lo más importante aquí es que este ajuste muchas veces se puede hacer de manera que la teoría sea predictiva incluso a energías mucho más altas de las que hemos explorado, y es precisamente el Modelo Estándar de la física de partículas la teoría que ha dado predicciones más precisas y que han concordado con los experimentos realizados a posteriori con un mayor número de cifras significativas de toda la historia de la humanidad.


Sobre el autor: Sergio Montañez Naz es doctor en física teórica y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

Bibliografía

  • Huang (1992), Quarks, Leptons And Gauge Fields, World Scientific, 2nd edition (1992)
  • Landau, L. D. and Lifshitz, E. M. (1992). Mecánica cuántica. Volumen 3 del Curso de Física Teórica. Reverté. Primera edición. Barcelona.
  • de Llano, M., A. Salazar, and M. A. Solís. (2005) "Two-dimensional delta potential wells and condensed-matter physics." Revista mexicana de física 51.6 (2005): 626-632.
  • Motl, L. Diversos posts en el difunto blog The Reference Frame.
  • Nyeo, Su-Long (2000): Regularization methods for delta-function potential in two-dimensional quantum mechanics. American Journal of Physics 68, 571 (2000); doi: 10.1119/1.19485
  • Shomer, Assaf (2007), A Pedagogical explanation for the non-renormalizability of gravity, arXiv:0709.3555 (hep-th).
  • Tong, David: Lectures on Quantum Mechanics






6 jul 2023

El tiempo en física moderna

Dejo aquí el trozo en el que participé en el programa número 20 de la 4ª temporada de La Noche Paradigmática, donde hablé sobre los sorprendentes descubrimientos de la física moderna acerca de la naturaleza del tiempo:
  • Desde que conocemos la física relativista, sabemos que el tiempo está íntimamente ligado al espacio. No se pueden separar.
  • Es una consecuencia de la unión de los principios de la relatividad y la mecánica cuántica que las leyes fundamentales de la naturaleza son invariantes si cambiamos el sentido de la flecha del tiempo, pero también hay que cambiar partícula por antipartícula y derecha por izquierda.
  • El sentido de avance del tiempo no viene de que partamos de una condición inicial caprichosa. No tiene relación con las condiciones iniciales. La flecha termodinámica del tiempo es consecuencia de la flecha lógica del tiempo, no al revés.
  • La flecha lógica del tiempo es también la responsable de que las mediciones en mecánica cuántica sean, a todos los efectos prácticos, irreversibles.

12 jun 2023

No, el examen de Matemáticas de la EvAU no contiene un problema "imposible de resolver".


Escribo este post para manifestar mi disconformidad con los artículos que se han publicado en diversos medios acerca de mi opinión en Twitter sobre el examen de Matemáticas de acceso a la universidad de la Comunidad de Madrid.

El pasado día 8 de junio alguien, sin contactar conmigo, inventó una noticia a partir de un tweet mío, y creo que esa noticia fue la que dio origen a todos los artículos publicados en diversos medios de comunicación. Ni la persona que inventó la noticia ni esos medios de comunicación que han publicado sobre mí contactaron conmigo. Habría bastado preguntarme por ello (como sí hicieron en la COPE) para que les hubiera aclarado que se trata de un asunto que no tiene gran interés. Explico a continuación el motivo:

El pasado día 7 de junio, una vez conocimos los enunciados de ese examen, varios profesores nos pusimos a discutir públicamente en Twitter acerca de si uno de los enunciados de uno de los ejercicios estaba o no correctamente redactado. Yo mantuve, y mantengo, que los que elaboraron el examen no lo redactaron correctamente porque, si se leyera literalmente lo que se pide, una de las cosas que se pide no se podría hacer. Sin embargo, esto no significa que “el problema es imposible de resolver”, ni que “no es posible contestarlo de forma correcta”, ni que "no se podía hallar la solución", ni se trata de "un hecho inédito" como han publicado los medios. Es un ejercicio sobre conceptos que están en el temario. Lo que significa es que los estudiantes tienen que sobreentender algunas cosas que no se dicen explícitamente en el enunciado para poder realizar el ejercicio con rigor matemático porque, en rigor, no se debe discutir si una función es o no continua en un punto que no pertenece a su dominio. Sí se pueden estudiar las discontinuidades (que no se definen sólo en el dominio, sino también en los puntos de acumulación del dominio), pero el enunciado no lo dice explícitamente. Se trata de una discusión técnica entre profesores que, si no se entiende, puede dar lugar a una mala interpretación, como ha ocurrido. Hay que tener en cuenta que en esa discusión los profesores a veces damos argumentos de matemáticas más avanzadas que no están en el temario de Bachillerato, pero eso no significa que ese problema no esté en el temario de Bachillerato. En esa discusión entre matemáticos, que se sigue produciendo días después, hay profesores que consideramos que ese enunciado está mal porque no es rigurosamente correcto y que debería enunciarse mejor la próxima vez. Otros, en cambio, piensan que la inmensa mayoría de los estudiantes habrán sobreentendido lo que se quería decir. No se trata, por tanto, de un asunto importante ni que sea merecedor de una noticia con titular alarmista.

Por ello, pido públicamente a todos los medios que modifiquen los titulares y el cuerpo de las noticias explicando que las frases entrecomilladas en el párrafo anterior no son ciertas ni es eso lo que significan mis tweets, por el daño a mi imagen personal que ha supuesto este asunto y que no se debe a lo que digo en los tweets (que soy consciente de que son públicos), sino a las imprecisiones que acabo de señalar publicadas en los medios. Ayer ya escribí a esos medios también por privado para aclarar el malentendido que, insisto, no se habría producido si hubieran contactado conmigo antes de dar una noticia sobre mí.

Para el que le interese la discusión técnica entre matemáticos, puede visitar este hilo mío completo de Twitter y el resto de cuentas de matemáticos que cito y que opinan lo mismo que yo:


Para realizar el ejercicio en cuestión con rigor matemático el estudiante tiene que sobreentender que lo se pregunta es:
  • "Estudia la continuidad de la función en aquellos puntos de $\mathbb{R}$ donde se pueda" (versión 1).
  • O bien "Estudia la continuidad de la función y las discontinuidades en $\mathbb{R}$" (versión 2)
El ejercicio resuelto siguiendo cada uno de los posibles significados que puede tener (versión 1 y versión 2) se puede descargar en este pdf que he elaborado. Es de esperar que los correctores darán ambas soluciones por válidas, pero eso no lo sabremos hasta que no se hagan públicas las soluciones oficiales y los criterios de corrección. 

Firmado:
Sergio Montañez Naz



22 may 2023

Por qué un Bachillerato de Ciencias sin Física no es un bachillerato de ciencias


Durante estos días los distintos centros educativos de Secundaria están definiendo cuál va a ser su oferta académica para el curso 2023-2024. Uno de los asuntos nuevos sobre los que hay que decidir es qué opciones va a dejar cada centro elegir a los estudiantes que entrarán en septiembre en 2° de Bachillerato, ya que en el próximo curso entrará en vigor en ese nivel la nueva ley educativa, la LOMLOE, que deroga la nefasta ley anterior, la LOMCE. Tanto la LOMLOE como la LOMCE permiten a los estudiantes del Bachillerato de Ciencias evitar cursar la asignatura de Física en 2° de Bachillerato, y hay muchos centros educativos (afortunadamente no son los centros en los que he estado en los últimos años) en los que, no sólo se da la opción a los estudiantes de evitar la Física, sino que, además, se les anima a ello, con el argumento de que así el Bachillerato es "más fácil" y que "pueden sacar mejores notas".

En este post voy a tratar de resumir los motivos por los que hacer esto supone engañar a los estudiantes, es perjudicial, no sólo para los que deciden no cursar Física, sino, además, para los que sí deciden cursarla y la justificación de esta decisión errónea que toman algunos centros está basada en un argumento que atenta contra la finalidad del Bachillerato establecida por la ley.


La Física es fundamental para los que quieren hacer un grado biosanitario.


Con las leyes anteriores se convirtió en tradición en muchos centros de Secundaria permitir que los estudiantes del itinerario Biosanitario, al no existir obligatoriedad legal, lleguen a la universidad sin haber cursado la Física de 2º de Bachillerato. Con la nueva ley, la LOMLOE, no existe el itinerario Biosanitario, pero el Decreto 64/2022 de la Comunidad de Madrid (y también de muchas otras comunidades) permite que los estudiantes sólo escojan dos asignaturas de entre las siguientes troncales de modalidad:
  • Física
  • Química
  • Dibujo Técnico
  • Biología
  • Tecnología e Ingeniería
  • Geología y Ciencias Ambientales
aunque también pueden coger tres si aceptan cursar cero asignaturas optativas. Con la ley anterior sí podían elegir tres de las anteriores y, además, tener optativas, pero la LOMLOE reintroduce, afortunadamente, la Historia de la Filosofía en 2º de Bachillerato como obligatoria y eso hace que sea incompatible cursar, a la vez, tres de las anteriores más una optativa.

Es necesario explicar que saltarte la asignatura de Física en 2º de Bachillerato te hace llegar a la universidad, aunque vayas a hacer un grado biosanitario, sin comprender la naturaleza de las ondas que se usan en las ecografías, confundirlas con las ondas electromagnéticas, no saber nada de electromagnetismo básico, no entender por qué las ondas de radio, los infrarrojos, microondas, luz visible, ultravioleta, rayos X, a pesar de ser de la misma naturaleza, poseen propiedades distintas en cuanto a su capacidad de bordear objetos, y cómo son emitidos y absorbidos por distintos sistemas físicos. Implica no saber casi nada de física nuclear, radiactividad, etc, lo que incluye no poder entender la diferencia entre una Resonancia Magnética Nuclear y un TAC. También no entender qué es el potencial eléctrico, ni saber qué es la corriente eléctrica, ni qué es un campo magnético. La medicina actual está cada vez más tecnificada y, no comprender los fundamentos básicos de los instrumentos que se utilizan crea un problema que podemos acabar pagando muy caro. 

Pero ¿cómo es esto posible? Pues porque todos estos contenidos fundamentales de Física no se dan en la asignatura de Física y Química de 1º de Bachillerato. Se dan en la de 2º. La asignatura de Física de 2º no es una asignatura que versa sobre el detalle de conocimientos de física que sólo necesitan los físicos o los ingenieros. Es una asignatura de cultura científica general que cualquier estudiante de un grado o de un FP superior de tipo biosanitario debe conocer para ser un profesional competente. La Física es fundamental para los que quieren hacer un grado biosanitario. Las universidades españolas así lo entienden, y por eso la Física pondera el máximo en este tipo de grados.

Aunque sean asignaturas separadas, la Física y la Química de 2º de Bachillerato están ligadas.


¿Qué hacemos en clase con los estudiantes que cursan la Química en 2º de Bachillerato pero no la Física? ¿Cómo entienden qué es la fuerza electromotriz de una celda galvánica? ¿Cómo entienden qué son los espectros de los distintos elementos químicos y qué información nos dan? ¿Retrasamos a sus compañeros (que sí dan Física) para explicar los conceptos básicos que los que no dan Física no conocen? El hecho de que haya estudiantes que no dan Física perjudica, no sólo a esos mismos estudiantes, sino también a los que sí dan Física, que tienen compañeros con agujeros importantes en su formación y dificultan el normal desarrollo de la clase. Y la solución es bien sencilla: que en 2º de Bachillerato, al igual que en 1º, todos los que dan Física también den Química y viceversa. Ya hay una elección que los estudiantes suelen hacer sí o sí en los centros educativos en 2º de Bachillerato, dar Biología o dar Dibujo Técnico, ya que, si no das ninguna de estas dos asignaturas, no llegas bien preparado para afrontar muchos de los grados de ciencias y/o ingenierías que hay. Análogamente, quitarte la Física o la Química, además de perjudicar a la otra, garantiza un agujero en tu formación científica muy difícil de arreglar con posterioridad. Son contenidos que, sin la ayuda de un profesor, pueden resultar inaccesibles a quien trata de estudiarlos por su cuenta.

Además, hay otro motivo por el que permitir a algunos estudiantes quitarse la Física o la Química en 2º de Bachillerato perjudica a los estudiantes que sí eligen la opción sensata (cursar ambas). Crea la incertidumbre de que, en los institutos que no son grandes (la mayoría) la opción de dar Física con Química puede no salir, lo que expulsaría del centro educativo a los que sí quieren acabar el Bachillerato con una formación científica sólida. Es decir, le estamos diciendo a los estudiantes que sí quieren estudiar tanto la Física como la Química en 2° de Bachillerato que, a lo mejor, les obligamos a renunciar a una de las dos, porque puede que no salga el grupo porque hemos animado a sus compañeros a hacer un bachillerato más fácil. ¿Es eso lo que queremos decirle a los alumnos y alumnas que más en serio se toman sus estudios?

Los centros deben velar por la formación sólida de los estudiantes.


De acuerdo con el Real Decreto 243/2022, "El Bachillerato tiene como finalidad proporcionar formación, madurez intelectual y humana, conocimientos, habilidades y actitudes que permitan desarrollar funciones sociales e incorporarse a la vida activa con responsabilidad y aptitud. Asimismo, esta etapa deberá permitir la adquisición y el logro de las competencias indispensables para el futuro formativo y profesional, y capacitar para el acceso a la educación superior".

¿Se puede hacer compatible la finalidad del bachillerato con animar a los estudiantes a hacer un bachillerato mutilado pero "más fácil"? Pues depende de la vía. Para eso puede que se hayan inventado el Bachillerato General. Pero, lo que no podemos hacer, es dejar que un estudiante se quite la Física o la Química en un Bachillerato de Ciencias porque, entonces, ya no es un bachillerato de ciencias.

Cuando un profesor o profesora da el argumento de que el Bachillerato sin Física es "más fácil", lo que está haciendo es presionar al departamento de Física y Química para que elabore exámenes más sencillos y ponga mejores notas. Es evidente que este tipo de argumentos no ayudan a la convivencia y el mutuo respeto que los departamentos tienen que tener por el trabajo que hacen el resto de compañeros. Los centros educativos deben velar por la formación sólida de los estudiantes y no deben permitir que los distintos departamentos compitan por ver quién ofrece a los estudiantes las mejores notas. Los estudiantes no son recursos que los departamentos tienen que comprar prometiéndoles notas altas.

La asignatura de Física es también una asignatura de matemáticas fundamental para los estudiantes de Ciencias.


El hecho de que la asignatura se llame "Física" y no sea impartida normalmente por profesores del departamento de Matemáticas hace que muchos ignoren que también se trata de una asignatura de matemáticas fundamental para los estudiantes del Bachillerato de Ciencias.

 
En concreto, estudiando física en Bachillerato los estudiantes aprenden que la derivada, además de ser el límite de un cociente de incrementos, y de ser la pendiente en una gráfica, también es la velocidad con la que cambia una magnitud física. Aprenden que, cuando están haciendo la operación contraria, la constante de integración también es la magnitud que determina las condiciones iniciales de un sistema físico. Aprenden que la integral definida también es el trabajo que estamos realizando al empujar a un cuerpo que se mueve en línea recta y, por tanto, es la energía cinética que le estamos dando. También aprenden conceptos que los matemáticos no enseñan en sus asignaturas de Bachillerato, como los de derivada parcial (el campo eléctrico en una dirección no es más que la derivada, cambiada de signo, en esa dirección del potencial eléctrico, y lo mismo ocurre con la relación entre cualquier fuerza conservativa y le energía potencial), la integral de línea (el trabajo en el caso general) o  la integral de superficie (que físicamente se puede entender como la carga encerrada por esa superficie). En la asignatura de Física es donde los estudiantes se encuentran por primera vez ecuaciones diferenciales que describen el movimiento de objetos, la evolución de muestras radiactivas, etc. En esta asignatura los estudiantes trabajan, ya sin saberlo, con el grupo de dilataciones y traslaciones en una dimensión cuando estudian el movimiento vibratorio, las congruencias módulo 4 con las familias radiactivas, mucho antes de que estudien estos contenidos en la universidad y, a la vez, es donde cogen más soltura trabajando con otros contenidos estudiados previamente en la asignatura de Matemáticas, como las razones trigonométricas o los vectores en el espacio tridimensional. Son muchos los ejemplos. Un porcentaje importante de lo que un estudiante bien formado del Bachillerato de Ciencias aprende sobre matemáticas ha sido aprendido en clase de Física, no porque los departamentos de Matemáticas hagan mal su trabajo, sino porque a ellos sólo se les ha encargado enseñar una parte de las matemáticas. La otra parte se da en Física.

Conclusión.


Un bachillerato de ciencias sin Física, o sin Química, no es propiamente un bachillerato de ciencias, por mucho que lo llamen así. En muchos centros (incluyendo varios en los que yo he estado), gracias al loable esfuerzo de varios compañeros, hemos conseguido que el centro fije como obligatorias la Física y la Química en 2° de Bachillerato. El problema es que al hacer eso te expones a sufrir las críticas (y puede que represalias) de algunos compañeros de otras áreas que no entienden por qué creamos tan mal ambiente con esta lucha y, lo que es peor, las amenazas de algunas familias y estudiantes de marcharse del instituto a otro centro porque la Física "les baja la nota media". Por mucho que cambien las leyes educativas, los profesores que estamos en los centros educativos seguimos indefensos defendiendo un Bachillerato de Ciencias completo, también con la Física y la Química obligatorias, pudiéndose fácilmente fijar por ley esta obligatoriedad si nuestros dirigentes quisieran. Dado que la ley no lo hace, los equipos directivos y los profesores de los centros que no sean enormes pueden establecer, si realmente quieren, la obligatoriedad tanto de la Física como de la Química, ya que no todas las opciones son viables. Es cierto, por lo menos en Madrid, que hay una optativa, la segunda lengua extranjera, que tiene que ofertarse obligatoriamente en todos los centros. Pero el centro puede decidir no dar más opciones de las que se nos obliga por ley y orientar bien a los estudiantes para que tomen la mejor decisión. Esto tiene consecuencias importantes a largo plazo para los centros educativos, las universidades y toda la sociedad. Con esta decisión nos jugamos mucho más que lo que vaya a ocurrir justo en el curso siguiente. Elijamos bien.

3 may 2023

Tutorial sobre movimientos rectilíneos

Aquí se puede acceder a un tutorial sobre movimientos rectilíneos para 1º de Bachillerato y 4º de ESO creado por mí y que he publicado en Procomún:


Se trata de un tutorial sobre los movimientos rectilíneos adaptado para 1º de Bachillerato y 4º de ESO. Pero también sirve para las asignaturas de Matemáticas de estos dos cursos. El único requisito previo es haber estudiado las Matemáticas de 3º de ESO.

El objetivo de este tutorial es ayudar a los estudiantes a relacionar los movimientos rectilíneos con las funciones y con su representación gráfica. Es decir, relacionar física, álgebra y geometría, ya que habitualmente en clase de Matemáticas se trabaja mucho la relación entre álgebra y geometría que establecieron Descartes y Fermat, pero no se suele trabajar su relación con la cinemática de los movimientos rectilíneos, que se trabaja en clase de Física y Química. Con este tutorial trato que los estudiante construyan este puente entre ambas asignaturas.

Al tratar sobre las conexiones con la geometría, es un reto adaptar este material para los estudiantes con algún tipo de deficiencia visual. Esto lo he hecho, por un lado, añadiendo enlaces en aquellas imágenes que contienen información que no venga en el texto, a vídeos de creación propia en los que se me escucha a mí explicando las imágenes que se pueden entender aunque no se vean éstas.

Y, por otro, añadiendo un script, creado por Juan José del Haro, que permite utilizar un menú en la parte superior de la página con las siguientes herramientas (en el mismo orden en que aparecen) que permiten hacer que el contenido sea más accesible:
  • Selector de fuente: Con el selector de fuente podemos cambiar a una fuente más legible (lato, Montserrat, opensans y roboto). Este selector incluye otros elementos de accesibilidad visual como la fuente Atkinson Hiperlegible y una fuente especial para dislexia
  • Zoom: permite aumentar y disminuir el tamaño de la página o del contenido en el que se está trabajando lo que contribuye a la legibilidad de textos y a la inclusión de estudiantes con dificultades de percepción visual
  • Traductor: permite traducir cualquier texto a la mayor parte de los idiomas utiliza el traductor de google (google translate). Es una herramienta especialmente indicada para la adaptación de los contenidos a estudiantes de otras culturas
  • Lector de textos con voz: permite la reproducción por voz de cualquier texto. Esta herramienta permite la adaptación e inclusión de estudiantes con dificultades de percepción visual
  • Botón flotante: un botón que permite fijar o moverse por la página con el cursor del ratón

20 ene 2023

Segunda Edición de la Olimpiada Científica Turina para estudiantes de 4° de ESO

Ya se ha abierto el plazo para inscribirse en la edición de este año de la Olimpiada Científica Turina para estudiantes de 4° de ESO, que se celebrará el jueves 16 de marzo de 2023 a las 17:00 en el IES Joaquín Turina.
Toda la información y el formulario de inscripción se encuentra en este enlace.

28 dic 2022

Las interpretaciones de la teoría de la relatividad

Albert einstein house bern.JPG

A finales del siglo XIX una serie de resultados experimentales sacudieron los cimientos de la física profundamente. Los intentos de medir a qué velocidad se movía la Tierra con respecto del éter luminífero arrojaban resultados diferentes en función de qué experimento se realizaba. Por ejemplo, si se hacía esto utilizando el fenómeno de la aberración de la luz, salía que la Tierra se mueve a unos 30 km/s con respecto del éter. Pero, si por el contrario, se utilizaba un interferómetro de Michelson, entonces esta velocidad era nula, como si el planeta Tierra arrastrara completamente al éter al moverse. Y, para hacer todo todavía más confuso, los experimentos de Fizeau concluían que el agua, al moverse a gran velocidad por una tubería, arrastra al éter, pero sólo un poco.

Esta complementariedad (la Tierra se mueve a una velocidad u otra en función de qué experimento decide realizar cada observador) constituía un quebradero de cabeza para los físicos y acabó dando origen al nacimiento de una nueva teoría, la teoría de la relatividad. Se trata de una teoría con un éxito experimental, en cuanto a sus predicciones, indiscutible. Sin embargo, a la hora de entender qué es lo que esta teoría nos está diciendo realmente, las cosas no son ya tan sencillas.

El aparente desacuerdo entre los resultados de estos tres experimentos fue inicialmente explicado suponiendo que la luz viaja siempre a una velocidad constante con respecto a todos los observadores (aunque la persigamos a casi la misma velocidad que tiene) y que los gemelos envejecen a distintos ritmos en función de qué viajes hagan en su vida. Estas ideas son las que constituyen lo que hoy en día se conoce como la "interpretación de Berna", haciendo referencia a la ciudad suiza donde vivían los dos científicos que se consideran los principales fundadores de la teoría de la relatividad: Albert Einstein y Mileva Maric. A mi me gusta más llamarla "interpretación ortodoxa" porque fue aceptada por muchos físicos sin apenas cuestionarse y hoy en día es la que se enseña en universidades y libros de texto de todo el mundo.


20 dic 2022

Las malinterpretaciones de la mecánica cuántica

"Tengo que confesar que el término 'interpretación de Copenhague' no es afortunado, ya que podría sugerir que hay otras interpretaciones, como supone Bohm. Estoy de acuerdo, por supuesto, en que las otras interpretaciones son disparates sin sentido".

Con estas palabras, Werner Heisenberg se lamentaba, en 1955, de haber utilizado por primera vez, 28 años después de la construcción de la mecánica cuántica, el término "interpretación de Copenhague" para referirse a ella [Freire2005]. Para ese momento, la mecánica cuántica ya llevaba más de dos décadas siendo una teoría firmemente establecida, y cualquiera que la negara o no la conociera estaba totalmente fuera de los espectaculares avances que se estaban produciendo en física.

Hasta ese momento, el término que había usado Heisenberg era "espíritu de Copenhague", para referirse a la mentalidad abierta que es necesaria para poder empezar a entender la mecánica cuántica y que durante la década de 1920 hizo falta para poder construir la nueva teoría a los físicos que trabajaron en ella, habiéndose realizado una parte importante de ese trabajo bajo el paraguas de Bohr en esa ciudad danesa.

Los temores de Heisenberg estaban justificados, ya que, inmediatamente después de que él lo acuñara, el término "interpretación de Copenhague" fue ampliamente difundido en cuanto algunos físicos y filósofos, entre los que se encontraban Bohm, Feyerabend y Popper [Howard2004], comenzaron a utilizar ese término en su propio provecho y con significados tergiversados (a favor de Feyerabend hay que decir que se acabó arrepintiendo años después). La bola fue creciendo y se acabó creando el mito de que la "interpretación de Copenhague", la "ortodoxa", es una interpretación cobarde, que se niega a abordar en qué consiste la realidad y que, además, adolece de un problema: el problema de la medida. Era muy burdo, pero fueron con ello. Se creó un hombre de paja al que puede aporrear hasta la persona más ignorante en física que pueda haber en el mundo con nada que sepa medianamente elaborar argumentos razonados, y que ha provocado que, a día de hoy, haya una confusión enorme y generalizada acerca del significado físico de los conceptos de la mecánica cuántica, si bien no entre el grueso de los físicos, sí entre el resto de científicos y filósofos.

Una de las técnicas más habituales y simples que usan los medios de comunicación que quieren poner a la opinión pública en contra de algún partido político es hablar de ese partido político sólo en lo referente a cosas negativas. Así consiguen que en los espectadores se despierte un sentimiento negativo sólo con pronunciar el nombre del partido. Todos podemos comprobar que, al menos entre los no físicos, casi el 100% de las veces en las que se pronuncia la palabra "Copenhague" cuando se habla de mecánica cuántica, lo es para asociarla a ideas negativas como "dificultades", "negación de la indagación científica", "ingenuidad", "pragmatismo extremo" e incluso "censura".

Una vez creado el hombre de paja y desprestigiado el trabajo de los fundadores de la mecánica cuántica, quedó vía libre, no sólo para que científicos serios se sintieran con fuerzas de "reinterpretar el formalismo de la mecánica cuántica" en vez de dedicar ese tiempo a trabajos más útiles, sino, lo que es todavía peor, para que cualquier chiflado propusiera su propia "interpretación de la mecánica cuántica". No sólo se creó el mito de que Copenhague tiene problemas importantes sin resolver, sino también el mito de que el formalismo matemático de la mecánica cuántica se puede completar con distintas "interpretaciones", y que es una cuestión de gustos metafísicos de cada uno elegir a cuál adscribirse. En todas las universidades del mundo lo que se enseña es la "interpretación de Copenhague" porque sus defensores "tienen una mentalidad muy cerrada" y son "intolerantes con las personas valientes que se atreven a ir más allá buscando alternativas". Y, cuando estos "valientes" se estrellan en contradicciones que no saben resolver, se les excusa con el eslogan "nadie entiende la mecánica cuántica".

Las horribles condiciones laborales con que los científicos desarrollan su carrera investigadora tampoco ayudan en nada a que desparezca esta confusión. La teoría cuántica de campos y su extensión, la teoría de cuerdas, son construcciones inmensas que uno no puede estudiarse en sólo uno o dos años de máster. Hay que publicar mucho y rápido para sobrevivir en un ambiente de inestabilidad laboral brutal, y una salida para algunos grupos ha sido motivar el trabajo que hacen en física teórica (sin usar campos ni cuerdas) vendiendo que "la física cuántica tiene un problema desde hace casi 100 años" y que ellos están "haciendo algo profundo para tratar de resolverlo", cuando en realidad están jugando con los mismos pocos qubits de siempre. Su utilidad en el campo de la información cuántica sí justifica muchos de estos trabajos, pero, con tan pocos recursos disponibles para la investigación, aun así se suele necesitar exagerar la importancia de lo que se hace, y la polémica de las "interpretaciones" permite dar a muchos trabajos un plus de interés que no merecen, pero que muchos aprovechan por necesidad.

En este artículo voy a explicar por qué lo que habitualmente se llaman "interpretaciones de la mecánica cuántica" podrían no ser tales, ya que, una vez analizadas más allá de la música que tararean continuamente los que más hablan, suele pasar que acaban cayendo en uno de estos tres grupos:

  • o bien son intentos inconsistentes de construir una teoría alternativa a la cuántica y que no tiene ningún sentido.
  • o bien se trata de hipótesis alternativas poco elaboradas que necesariamente dan lugar a predicciones distintas a la mecánica cuántica y/o que viven de espaldas a los experimentos que se han hecho en los últimos 100 años. 
  • o bien se trata simplemente de enfoques pedagógicos diferentes para enseñar la misma física que se construyó en Copenhague, construcciones que no aportan nada nuevo a la ciencia y que la única utilidad que pueden tener es proporcionar ideas interesantes para enseñar mecánica cuántica, ya que, en el fondo, no son interpretaciones distintas de lo que ya había.

Dado que se trata de un mercado inundado de una cantidad ingente de productos (donde abundan los de mala calidad y "low cost" en esfuerzo), para llevar cierto orden voy a intentar seguir la clasificación de Adán Cabello [Cabello2017], aunque ya aclaro que no voy a hacer un análisis completo. Esto es un post de un blog, no un estudio riguroso acerca del impacto de la mecánica cuántica en el pensamiento y su mal recibimiento por parte de los "intelectuales". Tampoco hay en este texto ninguna idea mía original acerca de la mecánica cuántica, como mucho algún enfoque propio sobre cómo enseñarla. Casi todo viene de lo que he leído de los autores de las referencias que cito al final.

21 ago 2022

Por qué todos los físicos deberían estudiar unas nociones básicas de supersimetría

 

Luke es un joven inquieto que no se conforma con las cuestiones mundanas que rodean a la granja donde vive. Cuando observa las estrellas por la noche, o la puesta de los dos soles que calientan su planeta, Tatooine, siente la llamada que le lleva a tratar de desvelar los secretos del universo. Afortunadamente para él, un astrónomo retirado, llamado Obi Wan, le proporciona a Luke los datos que obtuvo su padre, Anakin, el mejor observador de cuerpos celestes de su época, acerca del movimiento de los planetas de su sistema solar.

A Luke le han dicho que su padre está muerto. No sabe que abandonó la astronomía para pasarse al lado oscuro. Ahora le lee el futuro al emperador mediante el timo de la astrología. El emperador es un señor muy malvado que paga mejor a los astrólogos que a los astrónomos. Pero Luke se dispone a continuar el trabajo que dejó a medias su padre, y descifrar así las leyes fundamentales del universo.

Los planetas a veces se mueven más rápido y a veces más despacio. Parece difícil encontrar un patrón, una regularidad. Y entonces a Luke se le ocurre una idea muy atrevida: a lo mejor los planetas cambian su velocidad para que el vector que une el astro mayor del sistema con el planeta barra áreas iguales en tiempo iguales.

A estas alturas seguro que usted piensa que es capaz de adivinar cómo continúa la historia. Luke es Kepler, y con los datos de su padre, Tycho Brahe, descubre la ley de las áreas, y también la ley que relaciona los cubos de las distancias con los cuadrados de los periodos. Este impresionante trabajo hace que, unas décadas después, una científica de la nueva generación, Rey, que es bastante más valiente e inteligente que Luke, hace de Newton y, a partir de las leyes de Luke, llega a elaborar unas leyes de la física universales, que explican tanto la caída de una manzana como el movimiento de los planetas.

Pero no. El área barrida por unidad de tiempo es, salvo constante multiplicativa, el momento angular del planeta. La ley de las áreas en realidad es la ley de conservación del momento angular. Gracias al trabajo de la matemática Emmy Noether, sabemos que a toda simetría global continua de un sistema físico le corresponde una ley de conservación. Un caso concreto es la ley de conservación del momento angular. Esta ley se cumple cuando el planeta se mueve en un campo gravitatorio con simetría esférica. Sin embargo, el campo gravitatorio en el sistema solar al que pertenece Tatooine no tiene, ni de lejos, simetría esférica, porque hay dos soles, dos objetos muy masivos cuyos campos gravitatorios no podemos despreciar. Luke gasta mucho dinero y esfuerzo en construir telescopios cada vez más grandes, en medir las posiciones con cada vez mejor precisión. Pero no hay ni rastro de la ley de las áreas. Luke, desesperado por el movimiento caótico de los planetas, acaba en una disputa muy fuerte con un malvado y poderoso astrólogo (Vader), el cual, tras cortarle la financiación, le confiesa que es su padre y le convence para que se una al lado oscuro. Luke dedica el resto de su vida a entretener a los ricos con estupideces astrológicas que nada tienen que ver con la realidad.

En nuestro Sistema Solar, cuando los meses del año quedan los sábados por la noche para jugar al Risk, piden pizzas elípticas y las cortan de tal forma que todos coman la misma porción de pizza más o menos (menos Febrero, al que descaradamente le dan menos). Pero en el sistema solar de Tatooine esto no pasa. 


La analogía no es la que esperábamos. Luke somos nosotros, y la ley de conservación del momento angular de cada planeta es la supersimetría. La supersimetría es una hipotética simetría de la naturaleza que implica que cada grado de libertad fermiónico tiene asociado uno bosónico y viceversa. Al igual que Luke vive en un sistema solar que no tiene simetría de rotación y, por tanto, el momento angular de cada planeta no se conserva, nosotros vivimos en un universo en el que existe el electrón, pero no existe su compañero supersimétrico bosónico, el selectrón. Al menos a las escalas de baja energía en las que hemos explorado el mundo de la física de partículas (bajas comparadas con la escala de Planck) este mundo no es supersimétrico. Por mucho que nos hemos esforzado no hemos encontrado compañeros supersimétricos de las partículas conocidas. ¿Debemos, por tanto, abandonar la idea de la supersimetría? Eso es lo que vamos a analizar en este artículo.


16 ago 2022

Sobre la calidad epistemológica de las pruebas estadísticas

En el último post recomendé el episodio dedicado a Thomas Bayes, del podcast A Ciencia Cierta. Creí preciso ampliar lo que allí se dice acerca de las probabilidades en mecánica cuántica. Pero hay otro asunto sobre el que me gustaría añadir un matiz que considero importante, acerca de otra parte de este episodio, en concreto, los minutos 77 y 80, en los que Anabel Forte explica adecuadamente que es muy importante no confundir la probabilidad condicionada $P(A|B)$ con la otra probabilidad condicionada $P(B|A)$. Hay que agradecer a Forte que ponga tanto empeño en explicar al gran público esta distinción, ya que, desgraciadamente, esta falacia de confundir $P(A|B)$ con $P(B|A)$ es algo que recurrentemente está utilizando la ultraderecha xenófoba cuando, por ejemplo, confunde deliberadamente la probabilidad de que seas un violador siendo un extranjero, con la probabilidad de que seas un extranjero, siendo un violador. Se trata de uno de los múltiples ejemplos de anumerismo de los que se han valido los nazis ya desde hace casi un siglo para propagar su odio.

Otro ejemplo que ilustra lo grave que puede llegar a ser no tratar de forma correcta las probabilidades condicionadas es el que menciona Anabel Forte:
"Un ejemplo muy serio y muy triste es el de Sally Clark, que era una madre estadounidense cuyos hijos fallecieron, primero uno y luego años más tarde el otro, siendo muy bebés, y se la acabó acusando de haberlos asesinado y se la metió en la cárcel. Sally recurrió. Ella decía que no los había matado [...] ¿Cuál es la intuición que se aplicó en ese juicio? Pues que si ella era la culpable, era muy probable que sus dos hijos hubieran muerto. Pero eso no es lo que buscaba. Se buscaba la probabilidad de que ella hubiera sido la culpable, dadas las pruebas. Dado todo lo que había pasado. ¿Qué pasaba en este caso? Pues que el síndrome de muerte súbita es un síndrome que se da en niños muy pequeños, normalmente menores de un año, y que tiene una componente genética. Entonces, realmente, que hubiera fallecido el segundo condicionado a que hubiera fallecido el primero era una probabilidad mucho mayor. Entonces si tu juntabas toda esta información, la probabilidad de que Sally hubiera sido realmente la culpable era mucho más baja, y además se acabó demostrando que no era cierto".

Sin embargo, considero que hay un aspecto importante que se ha omitido en esta tertulia, y a eso quiero dedicar este post. Imaginemos que tenemos en cuenta esta influencia genética en casos como éste, y que se aplica el análisis bayesiano correctamente. Imaginemos que, aun así, nos sigue saliendo que es muy probable que esta mujer sea culpable. Bien, en ese caso tampoco sería adecuado asegurar que tenemos pruebas suficientes para condenarla. El problema es más complicado. ¿Por qué? Vamos a verlo.


11 ago 2022

Las probabilidades bayesianas y la mecánica cuántica

Bayes' Theorem MMB 01.jpg


A Ciencia Cierta es un podcast dirigido y presentado por Antonio Rivera que tiene varias virtudes frente al otro gran podcast de éxito que tenemos en España sobre ciencia, Coffee Break: Señal y Ruido. Además de la calidad de las aportaciones de los contertulios que participan en cada episodio, y que son diferentes en función del tema a tratar, la elección del tema no parece que esté asociada a ninguna noticia reciente ni polémica de moda en medios o redes sociales, lo que da más tiempo para elegir y preparar mejor los temas. Por contra, en A Ciencia Cierta no tienen ni a Francis Villatoro, ni a Gastón Giribet ni a Héctor Socas, y los temas de los que se habla no son tan avanzados como los de Coffee Break.

Uno de los episodios recientes de A Ciencia Cierta que me gustaría recomendar es el de Thomas Bayes, con Pablo Beltrán, Víctor Marco y Anabel Forte. Dejo aquí el enlace:

https://go.ivoox.com/rf/90488602

En este podcast no se habla específicamente sobre física, sino sobre la historia de cómo surgió el teorema de Bayes y por qué es tan importante hoy en día en todas las ramas de la ciencia. Pero entre los minutos 59 y 63, a raíz de un comentario de Anabel Forte, Víctor Marco explica que en mecánica cuántica las probabilidades son intrínsecas a la misma naturaleza, ya que no hay variables ocultas. El mundo es no determinista y por eso la probabilidad es la herramienta que explica la realidad. En mecánica cuántica hay probabilidades que no se deben al desconocimiento que tenemos sobre una realidad subyacente, sino que se deben a que en la misma naturaleza los observables en general no toman valores bien definidos antes de ser medidos. Pero ha sido un comentario demasiado breve, en mi opinión, ya que en seguida los contertulios han pasado a otro tema ajeno a la mecánica cuántica.

Como me ha parecido que dos horas de podcast son poco, voy a intentar en este post aclarar de forma más amplia cuál es la relación entre las probabilidades bayesianas y las mecánica cuántica. Sobre el uso de la fórmula de Bayes para la realización de inferencias y su importancia en filosofía de la ciencia el lector puede consultar este otro post


1 ago 2022

1+1 no es igual a 2

Los que nos dedicamos a la enseñanza estamos ya bastante hartos de recibir la acusación de que las enseñanzas que proporciona la escuela son demasiado teóricas e irreales. Nos dicen que, en el tecnificado mundo actual, una educación más orientada hacia lo práctico, en el que las humanidades, las artes y la parte teórica de las ciencias de la naturaleza jueguen un papel secundario, pudiera preparar para la vida de modo mucho más adecuado. Nos dicen también que no se debería apenas invertir dinero en investigación básica, sino en aquellas investigaciones que tiene como objetivo resolver problemas reales. Se trata de una visión miope de la realidad en la que están atrapados algunos de los que han recibido formación excesivamente aplicada en campos, como la ingeniería, la administración de empresas o el derecho, y no han podido disfrutar del trasfondo teórico de su disciplina.


Es necesario tener claro que ciencias, artes y humanidades no son cosas distintas. Cuando hablamos de humanidades (por ejemplo, la literatura, el arte, la política, la economía), hablamos de cosas que hace el ser humano, a diferencia de los procesos de la naturaleza. Pero resulta que la ciencia también es una humanidad, porque la ciencia la hace el ser humano. La ciencia estudia la naturaleza, pero es una disciplina humanística. Los científicos debemos vernos a nosotros mismos y ser vistos como humanistas, porque es lo que somos, aunque nuestro objeto de estudio no sea el ser humano. Y también debemos vernos como artistas, porque ¿qué son el planteamiento de preguntas, la emisión de hipótesis, la construcción de sistemas teóricos y el diseño de experimentos científicos, sino procesos creativos?

Dado que no son muy conocidas, voy a citar aquí las palabras que escribió sobre este asunto Werner Heisenberg, el físico más brillante de todos los padres de la mecánica cuántica, en su obra La imagen de la naturaleza en la física actual (actual de 1955, claro está). En esta obra Heisenberg reconoce que la formación humanística que recibió fue fundamental para el desarrollo de su actividad científica. Dice Heisenberg:
"toda la energía de nuestra cultura occidental procede y procedió siempre del estrecho enlace de las cuestiones de principio con la actuación práctica. En el dominio meramente práctico, otros pueblos y otras culturas alcanzaron un saber equiparable al de los griegos. En cambio, lo que desde el primer instante distinguió al pensamiento griego de los de otros pueblos fue la aptitud para retrotraer todo problema a una cuestión de principios teóricos, alcanzando así puntos de vista desde los cuales fue posible ordenar la policroma diversidad de la experiencia y hacerla asimilable por el intelecto del ser humano. [...] leer a los griegos significa ejercitarse en el uso de la más poderosa herramienta intelectual que el pensamiento del occidente ha conseguido crear. En este sentido, puede decirse que la educación humanística proporciona también un saber muy útil" [Heisenberg1955].

Dejando a un lado la obsoleta visión eurocéntrica de Heisenberg, me gustaría señalar que el físico alemán sí da en la clave en este texto sobre el motivo por el que ha sido tan fructífero el pensamiento filosófico y científico desde su nacimiento. Desgraciadamente, muchas personas todavía desconocen la importancia de la articulación de este pensamiento en base a primeros principios, y quieren encajonar nuestro conocimiento actual en una simple colección de hechos.

Una de las cosas que estas personas ignoran es que los primeros principios no son acumulativos. Si a un principio de la física teórica le sumamos otro, el resultado no es simplemente dos principios. Si estos principios son incompatibles, el resultado es nada. Pero, si estos dos principios en última instancia se pueden reconciliar, la historia de la ciencia nos dice que esta reconciliación, cuando es no trivial, implica puntos de vista nunca antes vistos que nos llevan a nuevos principios y procesos físicos que inicialmente no parecían ser consecuencia de esos 1+1 principios iniciales. En este caso, la suma 1+1 no es igual a 2, sino una obra de arte intelectual muchísimo mayor.