Páginas

20 dic 2022

Las malinterpretaciones de la mecánica cuántica

"Tengo que confesar que el término 'interpretación de Copenhague' no es afortunado, ya que podría sugerir que hay otras interpretaciones, como supone Bohm. Estoy de acuerdo, por supuesto, en que las otras interpretaciones son disparates sin sentido".

Con estas palabras, Werner Heisenberg se lamentaba, en 1955, de haber utilizado por primera vez, 28 años después de la construcción de la mecánica cuántica, el término "interpretación de Copenhague" para referirse a ella [Freire2005]. Para ese momento, la mecánica cuántica ya llevaba más de dos décadas siendo una teoría firmemente establecida, y cualquiera que la negara o no la conociera estaba totalmente fuera de los espectaculares avances que se estaban produciendo en física.

Hasta ese momento, el término que había usado Heisenberg era "espíritu de Copenhague", para referirse a la mentalidad abierta que es necesaria para poder empezar a entender la mecánica cuántica y que durante la década de 1920 hizo falta para poder construir la nueva teoría a los físicos que trabajaron en ella, habiéndose realizado una parte importante de ese trabajo bajo el paraguas de Bohr en esa ciudad danesa.

Los temores de Heisenberg estaban justificados, ya que, inmediatamente después de que él lo acuñara, el término "interpretación de Copenhague" fue ampliamente difundido en cuanto algunos físicos y filósofos, entre los que se encontraban Bohm, Feyerabend y Popper [Howard2004], comenzaron a utilizar ese término en su propio provecho y con significados tergiversados (a favor de Feyerabend hay que decir que se acabó arrepintiendo años después). La bola fue creciendo y se acabó creando el mito de que la "interpretación de Copenhague", la "ortodoxa", es una interpretación cobarde, que se niega a abordar en qué consiste la realidad y que, además, adolece de un problema: el problema de la medida. Era muy burdo, pero fueron con ello. Se creó un hombre de paja al que puede aporrear hasta la persona más ignorante en física que pueda haber en el mundo con nada que sepa medianamente elaborar argumentos razonados, y que ha provocado que, a día de hoy, haya una confusión enorme y generalizada acerca del significado físico de los conceptos de la mecánica cuántica, si bien no entre el grueso de los físicos, sí entre el resto de científicos y filósofos.

Una de las técnicas más habituales y simples que usan los medios de comunicación que quieren poner a la opinión pública en contra de algún partido político es hablar de ese partido político sólo en lo referente a cosas negativas. Así consiguen que en los espectadores se despierte un sentimiento negativo sólo con pronunciar el nombre del partido. Todos podemos comprobar que, al menos entre los no físicos, casi el 100% de las veces en las que se pronuncia la palabra "Copenhague" cuando se habla de mecánica cuántica, lo es para asociarla a ideas negativas como "dificultades", "negación de la indagación científica", "ingenuidad", "pragmatismo extremo" e incluso "censura".

Una vez creado el hombre de paja y desprestigiado el trabajo de los fundadores de la mecánica cuántica, quedó vía libre, no sólo para que científicos serios se sintieran con fuerzas de "reinterpretar el formalismo de la mecánica cuántica" en vez de dedicar ese tiempo a trabajos más útiles, sino, lo que es todavía peor, para que cualquier chiflado propusiera su propia "interpretación de la mecánica cuántica". No sólo se creó el mito de que Copenhague tiene problemas importantes sin resolver, sino también el mito de que el formalismo matemático de la mecánica cuántica se puede completar con distintas "interpretaciones", y que es una cuestión de gustos metafísicos de cada uno elegir a cuál adscribirse. En todas las universidades del mundo lo que se enseña es la "interpretación de Copenhague" porque sus defensores "tienen una mentalidad muy cerrada" y son "intolerantes con las personas valientes que se atreven a ir más allá buscando alternativas". Y, cuando estos "valientes" se estrellan en contradicciones que no saben resolver, se les excusa con el eslogan "nadie entiende la mecánica cuántica".

Las horribles condiciones laborales con que los científicos desarrollan su carrera investigadora tampoco ayudan en nada a que desparezca esta confusión. La teoría cuántica de campos y su extensión, la teoría de cuerdas, son construcciones inmensas que uno no puede estudiarse en sólo uno o dos años de máster. Hay que publicar mucho y rápido para sobrevivir en un ambiente de inestabilidad laboral brutal, y una salida para algunos grupos ha sido motivar el trabajo que hacen en física teórica (sin usar campos ni cuerdas) vendiendo que "la física cuántica tiene un problema desde hace casi 100 años" y que ellos están "haciendo algo profundo para tratar de resolverlo", cuando en realidad están jugando con los mismos pocos qubits de siempre. Su utilidad en el campo de la información cuántica sí justifica muchos de estos trabajos, pero, con tan pocos recursos disponibles para la investigación, aun así se suele necesitar exagerar la importancia de lo que se hace, y la polémica de las "interpretaciones" permite dar a muchos trabajos un plus de interés que no merecen, pero que muchos aprovechan por necesidad.

En este artículo voy a explicar por qué lo que habitualmente se llaman "interpretaciones de la mecánica cuántica" podrían no ser tales, ya que, una vez analizadas más allá de la música que tararean continuamente los que más hablan, suele pasar que acaban cayendo en uno de estos tres grupos:

  • o bien son intentos inconsistentes de construir una teoría alternativa a la cuántica y que no tiene ningún sentido.
  • o bien se trata de hipótesis alternativas poco elaboradas que necesariamente dan lugar a predicciones distintas a la mecánica cuántica y/o que viven de espaldas a los experimentos que se han hecho en los últimos 100 años. 
  • o bien se trata simplemente de enfoques pedagógicos diferentes para enseñar la misma física que se construyó en Copenhague, construcciones que no aportan nada nuevo a la ciencia y que la única utilidad que pueden tener es proporcionar ideas interesantes para enseñar mecánica cuántica, ya que, en el fondo, no son interpretaciones distintas de lo que ya había.

Dado que se trata de un mercado inundado de una cantidad ingente de productos (donde abundan los de mala calidad y "low cost" en esfuerzo), para llevar cierto orden voy a intentar seguir la clasificación de Adán Cabello [Cabello2017], aunque ya aclaro que no voy a hacer un análisis completo. Esto es un post de un blog, no un estudio riguroso acerca del impacto de la mecánica cuántica en el pensamiento y su mal recibimiento por parte de los "intelectuales". Tampoco hay en este texto ninguna idea mía original acerca de la mecánica cuántica, como mucho algún enfoque propio sobre cómo enseñarla. Casi todo viene de lo que he leído de los autores de las referencias que cito al final.


Del "espíritu de Copenhague" a los principios de la mecánica cuántica

¿En qué consiste el "espíritu de Copenhague"? Esta nueva mentalidad (nueva en la década de 1920), que tiene origen en la filosofía de Ernst Mach y está inspirada en la revolución relativista de Einstein, acepta que, si algo no se puede definir operacionalmente a partir de la experiencia, entonces ese algo es sospechoso de ser un mito. Por tanto, es perfectamente legítimo construir teorías en las que ese algo no tiene significado físico, teorías que luego tendrán que superar las pruebas experimentales correspondientes. ¿Hay alguna forma de definir operacionalmente la simultaneidad entre sucesos en general para todos los sistemas de referencia? No. Por eso Einstein pudo construir una teoría donde no existe el tiempo absoluto.

No obstante, es necesario aclarar que esta mentalidad se aleja de Mach en que no implica que estemos obligados a eliminar de la física todo lo que no tenga conexión directa con la experiencia o pueda deducirse a partir de ella. El empirismo de Einstein es un empirismo con propósito unificador. La consistencia de la teoría, articulada en torno a primeros principios, está por encima de toda otra consideración, y tanto la relatividad como la mecánica cuántica contienen elementos necesarios para articular la teoría que no están directamente conectados con la experiencia.

Para explicar cómo este "espíritu de Copenhague" ayudó a construir la mecánica cuántica, es útil considerar el experimento de la doble rendija (con rendijas pequeñas, para que no sea demasiado complicado):


Este experimento nos dice que las partículas forman patrones de interferencia, es decir, se comportan como ondas. Pero cada una de ellas en la pantalla deja una marca discreta. Además, si tapamos la rendija de arriba con otra pantalla, la mitad de las veces la partícula golpeará la pantalla que tapa la rendija de arriba, y la otra mitad pasará por la rendija de abajo y no formará patrón de interferencia al llegar a la pantalla del fondo, es decir, en este caso las partículas se comportan como corpúsculos.

Por tanto, según el experimento que hagamos, las partículas exhiben propiedades de corpúsculos, o bien exhiben propiedades ondulatorias. Además, en otros experimentos necesitamos invocar ambos puntos de vista complementarios para explicar lo que se observa. Todo esto constituye el principio de complementariedad de Böhr, que ahora se ha puesto de moda llamar "contextualidad".

¿Tenemos que explicar esto a los estudiantes diciendo que "Böhr era muy oscuro con sus insinuaciones" y que "esto es una contradicción que no podemos entender pero que Böhr nos dice que tenemos que aceptar"? No. Si, a ciegas, palpamos el costado de un elefante nos puede parecer una pared, pero si lo que palpamos es la trompa, nos puede parecer una serpiente. ¿Vamos a decir que el elefante es, a la vez, una pared y una serpiente? No. Lo que vamos a decir es que es un elefante.

Análogamente, las partículas cuánticas no son ondas ni corpúsculos. No hay ningún procedimiento experimental que nos permita determinar sin ambigüedades que algo es una onda o un corpúsculo y, por eso, es perfectamente legítimo construir una teoría, la mecánica cuántica, en la que las ondas y los corpúsculos son mitos. Las partículas que existen a veces se comportan como el mito de la ondas, y a veces como el de los corpúsculos. Los mitos son útiles a veces para acercarnos a la realidad desde determinados ángulos, pero no son la realidad.

Ya que las partículas cuánticas no son ni ondas ni corpúsculos, sino un objeto nuevo para los físicos (nuevo hace un siglo), ¿cómo podemos saber qué propiedades tienen? Resulta que el patrón de interferencia se observa aunque enviemos las partículas de una en una, sin posibilidad de que interaccionen entre ellas. El espíritu de Copenhague nos lleva a, para poder explicar esto, asumir que cada una de las partículas, en su movimiento, no sigue una trayectoria bien definida. Esto es lo que constituye el principio de indeterminación de Heisenberg.

Todos los pensadores, desde los atomistas griegos, habían asumido que las partículas se mueven según trayectorias bien definidas. Pues bien, las trayectorias son como Santa Claus, no existen. Son un mito. Sólo al madurar lo descubrimos.

El hecho de que las trayectorias no existan nos trae el problema de que, entonces, una partícula no puede tener bien definidas, simultáneamente, su posición y su velocidad, ya que, al ser la velocidad siempre tangente a la trayectoria, ésta nos permitiría, al combinarla con la posición, reconstruir la trayectoria en un entorno infinitesimal de ese punto.

En física clásica, a partir de las posiciones y las velocidades iniciales de todas las partículas, podemos en principio calcular, usando las fuerzas o el formalismo lagrangiano, o hamiltoniano, o lo que sea, todas las posiciones y velocidades futuras. Pero en cuántica, como posición y velocidad no pueden tomar valores bien definidos al mismo tiempo, es imposible conocer ambas propiedades al mismo tiempo ni predecir ningún valor simultáneo para ellas en el futuro. Entonces, ¿cómo hacemos física?

Aunque todo en el universo es cuántico, en todos los experimentos los sistemas cuánticos acaban interaccionando, cuando queremos medir alguna propiedad de éstos, con aparatos que amplifican la señal y que tienen grados de libertad macroscópicos que son clásicos en muy buena aproximación, ya que la descripción mecanocuántica de los sistemas grandes se suele aproximar muy bien a la descripción clásica (éste es el principio de correspondencia de Bohr y Heisenberg). De esta interacción podemos obtener información sobre el valor de algunas magnitudes del sistema cuántico. Son propiedades, por tanto, que no pertenecen al sistema cuántico aislado, sino al conjunto sistema+aparato. No es, por consiguiente, ningún misterio que estas magnitudes se manifiesten como bien definidas o no en función del dispositivo experimental. Por eso se las denomina "observables". Y, como no todos pueden tomar valores bien definidos simultáneamente, todas estas propiedades tienen que ser descritas mediante probabilidades.

Pero, en experimentos como el de la doble rendija, para que la suma de todas las probabilidades sea igual a uno, en seguida nos damos cuenta de que lo que tenemos que sumar no son las probabilidades asociadas a cada camino, sino las amplitudes de probabilidad. Es decir, la interferencia entre caminos se hace sumando las amplitudes de probabilidad, no las probabilidades. Las amplitudes de probabilidad son números complejos, mientras que la probabilidad se obtiene elevando al cuadrado el módulo de este número complejo. Esta regla se denomina regla de Born.

El lector que esté teniendo dificultades para seguir este texto es mejor que vea primero los 8 primeros vídeos (son cortos) del Curso de Mecánica Cuántica para estudiantes de Bachillerato que doy para los estudiantes que quieren aprender más de lo que establece el currículo oficial. Como es un material adaptado a Bachillerato, trabajo con un experimento más sencillo todavía que el de la doble rendija (el interferómetro de Mach-Zehnder), y sólo hacen falta matemáticas de 4° de ESO (15 años) para poder hacer todos los cálculos detallados.

 

Una vez que tenemos claro que la física a nivel fundamental la única predicción que nos puede dar son amplitudes de probabilidad de que ocurra un determinado suceso (de que un observable tome un valor concreto), sin decirnos exactamente cuál va a ocurrir, y de que hay conjuntos de observables que no pueden tomar todos a la vez valores bien definidos porque son incompatibles entre sí, el siguiente nivel en nuestro proceso de aprendizaje consiste en darnos cuenta de que, de aquí, surge una estructura matemática que nos permite agrupar las amplitudes de los distintos sucesos excluyentes (valores distintos que puede tomar un conjunto completo de observables compatibles) en una función de onda, que, por el principio de superposición, es un elemento de un espacio vectorial: el espacio vectorial de Hilbert de los estados cuánticos. Como los módulos al cuadrado de las amplitudes de probabilidad obedecen al teorema de Pitágoras (ya que las probabilidades de sucesos excluyentes se suman), éstas se pueden interpretar como las componentes de un vector en una base ortonormal en un espacio vectorial de Hilbert. Los estados excluyentes son perpendiculares entre sí en este espacio vectorial. Un mismo estado cuántico da lugar a distintas funciones de onda (funciones de onda en distintas representaciones) en función de la base ortonormal que elijamos para el espacio de Hilbert de los estados cuánticos. Para no usar ninguna base concreta podemos usar la notación de Dirac. Pero la función de onda en una representación concreta determina por completo el vector estado cuántico. Ambos objetos matemáticos contienen la misma información.

Dados unos determinados sucesos iniciales, uno puede calcular las amplitudes de probabilidad de los sucesos futuros de distintas maneras, todas equivalentes:

  • haciendo evolucionar, si el sistema está aislado, a la función onda de acuerdo a la ecuación de Schrödinger, que nos dice que el estado cuántico cambia con el tiempo de forma unitaria. Ésta es la imagen de Schrödinger (también vale hacer evolucionar el operador densidad de acuerdo a la ecuación de von Neumann). Aquí es importante remarcar que esta evolución unitaria no es del sistema, sino de nuestras predicciones (amplitudes de probabilidad) cuando medimos sobre el sistema. Por eso, si el sistema está aislado, esta evolución, que tiene que ser lineal por el principio de superposición, es además unitaria: las probabilidades tienen que sumar uno y estados excluyentes entre sí tienen que dar lugar a evoluciones temporales excluyentes entre sí.
  • haciendo que lo que evolucionen sean los operadores hermíticos que representan a los observables. Ésta es la imagen de Heisenberg. Construir un operador hermítico es una forma de asociar, a cada uno de los vectores de una base ortonormal concreta, un valor real para el observable, el valor bien definido que toma ese observable en ese estado concreto (los estados en los que ese observable está bien definido son así autovectores de ese operador). Por eso los observables que no pueden tomar simultáneamente valores bien definidos están asociados a (son diagonales en) bases distintas, es decir, no conmutan. En la imagen de Schrödinger dejamos fijo en el tiempo qué valor del observable corresponde a cada subespacio vectorial, pero en la de Heisenberg lo que se deja fijo es el estado del sistema y lo que va evolucionando es el subespacio vectorial asociado a cada valor del observable. Por eso el operador hermítico cambia. También hay otras imágenes intermedias entre la de Heisenberg y la de Schrödinger.
  • sumando para todos los caminos posibles que han seguido las partículas (integral de camino de Feynman). Cada camino tiene asociada una acción. Esta acción, en unidades de la constante de Planck reducida, es la fase de un número complejo de módulo uno asociada a cada camino. Hacemos entonces interferencia de todos los caminos sumando todos estos números complejos. Si apuntan en la misma dirección y sentido del plano complejo, la interferencia es constructiva, pero si se anulan al sumarlos, la interferencia es destructiva y ese suceso es muy improbable.
  • haciendo la traza de un producto de proyectores para obtener la probabilidad de cada una de las historias que forman un conjunto consistente. Éste es el formalismo de las historias consistentes [Griffiths2002], que también es equivalente a los anteriores, y que pocos físicos conocen.

Es muy importante, para lo que sigue, no olvidarse de que la función de onda es una función con dominio, no en el espacio tridimensional real, sino en el espacio de todos los posibles resultados del experimento, y los valores que toman son números complejos que no se pueden medir para un sólo sistema cuántico, sino que representan las amplitudes de probabilidad de que un observador obtenga ese resultado. Como decía Heisenberg, una vez se ha obtenido un resultado, éste pasa, de ser sólo una posibilidad, a ser real. En cambio, los resultados que no se han obtenido nunca son reales.

La función de onda no es una onda clásica que se propaga por el espacio ordinario. El único significado que tiene es contener a las amplitudes de probabilidad. No es nada más, ni puede la cuántica darte nada más. Por eso von Neumann decía que "Todo lo que se puede decir acerca del estado de un sistema debe ser derivado de la función de onda". Por tanto, la función de onda, como explicaba Heisenberg, lo que representa es el máximo conocimiento (subjetivo) que tiene un observador acerca del sistema cuántico, conocimiento formado por amplitudes de probabilidad. Aunque también es objetiva en el sentido de que es lo máximo que podemos conocer acerca del sistema y de que dos observadores colocados en el mismo sitio en el mismo dispositivo experimental y situados de la misma manera y accediendo a lo mismo van a escribir en su papel, aplicando la mecánica cuántica, la misma función de onda. En palabras de Heisenberg: "Por supuesto, la introducción de un observador no deber pensarse erróneamente que implica que tenga que introducirse en la descripción de la naturaleza algún tipo de aspecto subjetivo. Al contrario, el observador tiene, como única tarea, la función de registrar sucesos, sin importar si el observador es un aparato, o un ser humano; pero el registro, es decir, la transición de un posible resultado al hecho que ocurre, es completamente necesario aquí y no puede ser omitido del significado físico de la teoría cuántica" [Heisenberg1958].

No es una idea nueva que el estado cuántico de un sistema sea subjetivo y, a la vez, objetivo. El intervalo de tiempo entre dos sucesos en relatividad especial es "subjetivo" en el sentido de que es diferente en cada sistema de referencia (diferente para cada observador, ya que en la práctica nunca hay dos observadores que estén toda su vida, como persona o como aparato, en reposo uno respecto de otro). Pero también podemos decir que el intervalo temporal entre dos sucesos es "objetivo" en el sentido de que dos observadores imaginarios situados exactamente en el mismo sistema de referencia obtendrían el mismo intervalo de tiempo. El tiempo es relativo al sistema de referencia. Análogamente, el estado cuántico, y su función de onda asociada, es relativo a cada observador. No hay ningún problema con eso. Además, hay que insistir en que la función de onda de un sistema cuántico individual no es medible, no hay ningún observable asociado a ella.

Si no has estudiado mecánica cuántica en un curso universitario (o si la has estudiado, pero lo único que has aprendido es a callarte y calcular sin tener muy claro el significado de lo que estás calculando) te recomiendo que veas también los vídeos 9, 10 ,11 y 12 del Curso de Mecánica Cuántica para estudiantes de Bachillerato.


El mito de un "Copenhague" débil y el pseudoproblema de la medida

Hoy en día podemos decir que los principales fundadores de la mecánica cuántica y que necesitaron el "espíritu de Copenhague" para elaborarla fueron fundamentalmente Bohr, Heisenberg, Born y Pauli, que, aunque con diferencias claras de estilo en la exposición del significado físico de lo que estaban haciendo (no nos olvidemos de que primero se construye una teoría y, después, su didáctica), a partir de 1927 trabajaron en esencia sobre los mismos supuestos físicos, no había entre ellos ningún desacuerdo fundamental y asignaron consenso científico al producto final. Einstein también estaba impregnado de ese espíritu y lo había inspirado, pero no participó en la elaboración final de la teoría y se negaba a aceptarla como teoría fundamental (aunque sí como aproximación incompleta a la realidad). No obstante, pienso que sí merece también claramente el título de "padre" de la teoría, no sólo porque había puesto los primeros ladrillos dos décadas antes al asignar significado físico a los cuantos de Planck, o porque sirvió de inspiración a Born para darse cuenta de que los valores que toma la función de onda son amplitudes de probabilidad, sino también porque sus ingeniosas objeciones a la mecánica cuántica obligaron a Böhr a explicarse mejor y a exprimirse a fondo, sometiendo a la nueva teoría a experimentos mentales que constituyen test de consistencia nada triviales que la hicieron más sólida. Desde su oposición, Einstein ayudó mucho en la elaboración del producto final.

En cambio, otros pioneros de la física cuántica, como Planck, de Broglie y Schrödinger, que también pusieron piedras muy importantes, no formaron parte de la construcción final de la teoría porque, al tener la mente más cerrada, se anclaron en hipótesis que no llevaban a ninguna parte. Además, otros científicos que también contribuyeron de forma importante al desarrollo matemático de la teoría, como von Neumann y Dirac, no estuvieron del todo acertados en la exposición del significado físico de los objetos matemáticos con los que estaban trabajando y fueron fácilmente malinterpretados.

La principal fuente de confusión acerca de la mecánica cuántica viene de suponer, como creía Schrödinger  (y se podría malinterpretar de los textos de von Neumann y Dirac), que la función de onda es un ente con existencia física, como una onda clásica, que se propaga por todos los puntos del espacio hasta que alguien la "mira" y entonces se produce un "colapso" que hace que la partícula esté sólo en un sitio cuando alguien la observa. Esta caricatura de Copenhague se puede resumir en este meme, muy difundido últimamente en las redes sociales:

Pero este meme es sólo una broma. En realidad ni la mecánica cuántica de Bohr, Heisenberg y Born predice eso, ni la naturaleza funciona así. Nótese que entre los principios de la mecánica cuántica descritos en la sección anterior no hay ninguno que hable de ningún colapso, y tampoco podemos encontrar el colapso entre los postulados de la cuántica en libros de texto de mecánica cuántica tan completos como el volumen 3 del Landau-Lifshitz, el Ballentine o el Peres. No hay ningún proceso físico que corresponda al colapso de la función de onda, y los libros de texto de cuántica que hablan del colapso, o las menciones a éste por parte de los fundadores de la mecánica cuántica, se refieren sólo a un atajo matemático para hacer las operaciones más rápido. Se trata sólo de un proceso matemático innecesario en la teoría. Nótese, por ejemplo, que tanto en el formalismo de la integral de camino de Feynman como en el de historias consistentes (que son equivalentes a las imágenes de Schrödinger y de Heisenberg) las cuentas se hacen sin introducir ningún colapso, incluso aunque se haya realizado una medición en algún paso intermedio, como se muestra en este ejemplo.

Vamos a explicar el meme. Por el hecho de mover los ojos y ponerlos en la dirección de las rendijas no va a ocurrir que, si se estaba produciendo un patrón de interferencia (dibujo de arriba), éste vaya a dejar de producirse (dibujo de abajo). Al mirar algo, no estamos enviado rayos al objeto observado. Luego no podemos modificar su comportamiento. Lo que sí ocurre cuando vemos algo es que hay luz que sale de ese algo y llega a nuestros ojos. Los niños aprenden esto de pequeños, pero hay personas a las que parece que se les ha olvidado. Esto es clave. Hay luz que sale de ese algo. Pero, el hecho de que haya luz que salga de ese algo, es independiente de que pongamos los ojos en esa dirección para mirar o no.

Ahora bien, ¿qué pasa cuando hay luz que sale de ese algo? Pues que esa luz está entrelazada cuánticamente con ese algo. Este es el punto importante que ignoran muchos de los que atacan a la mecánica cuántica, los que no aceptan los descubrimientos que se hicieron en Copenhague hace 96 años.

Cuando calculo la amplitud de probabilidad de que ese algo llegue a un punto concreto de la pantalla tras atravesar la doble rendija, tengo que sumar para todos los caminos. Simplificando mucho, tengo que sumar las amplitudes correspondientes a estos dos caminos.

Otra forma equivalente de expresar esto matemáticamente es decir que el estado cuántico de esa partícula (que llamaremos A) inmediatamente antes de llegar a la pantalla es la suma (superposición cuántica) del estado asociado a haber pasado por la rendija de arriba $\sigma_z=+1$, más el estado asociado a haber pasado por la rendija de abajo $\sigma_z=-1$.

$ \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle_A + \frac{1}{\sqrt{2}}|\sigma_z=-1 \rangle_A $

Pero, ¿qué pasa si la partícula, cuando está atravesando la doble rendija, emite luz? Entonces ahora esa luz (que llamaremos B) también está en un estado cuántico superposición de haber sido emitida desde la rendija de arriba más haber sido emitida desde la rendija de abajo.

Pero este estado cuántico es un estado entrelazado. Eso significa que no se puede expresar como un producto (tensorial) de un estado asociado a la partícula, multiplicado por un estado asociado a la luz emitida por ésta.

$ | \psi^{'} \rangle_B | \psi \rangle_A $

El estado entrelazado es así:

$ \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle_B |\sigma_z=+1 \rangle_A + \frac{1}{\sqrt{2}} |\sigma_z=-1 \rangle_B  |\sigma_z=-1 \rangle_A $

Si nos fijamos bien, ahora nunca vamos a tener un estado para la partícula que sea suma (superposición cuántica) de haber pasado por la rendija de arriba más haber pasado por la rendija de abajo. Para hacer eso necesitaría sacar factor común, pero el factor que hay NO ES COMÚN. No sólo son factores diferentes, sino que, en buena aproximación, son factores excluyentes (vectores en el espacio de Hilbert perpendiculares entre sí), con lo que tampoco me vale el truco de descomponer a uno de ellos en sumandos y buscar algún sumando común. Imaginad un vector en el espacio ordinario que esté en el plano XY. Es perpendicular a otro que apunte en el eje Z. Aunque descomponga el primer vector en suma de componentes, no va a haber ninguna componente que vaya en la dirección del segundo vector. En el espacio de Hilbert de los estados cuánticos pasa igual.

Al no poder sacar factor común, ya no sumo la amplitud de probabilidad de haber pasado por la rendija de arriba con la amplitud de probabilidad de haber pasado por la de abajo. Ya no hay suma de caminos. Por tanto, ¡ya no hay interferencia! La partícula se comporta como si hubiera pasado por una rendija concreta. A todos los efectos, HA PASADO POR UNA RENDIJA CONCRETA Y NO POR LA OTRA. Por haber emitido luz, la partícula ahora se comporta como si fuera clásica.

Por supuesto, sigue siendo cuántica, pero esto sólo lo podríamos demostrar si se volviera a cruzar en su camino la luz emitida y se produjera interferencia entre estos dos sumandos completos:

$ \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle_B |\sigma_z=+1 \rangle_A + \frac{1}{\sqrt{2}} |\sigma_z=-1 \rangle_B |\sigma_z=-1 \rangle_A $

Pero, como esa luz emitida ya no vuelve, el resultado del experimento va a ser que no se va a producir ningún patrón de interferencia. Y esto es independiente de si muevo los ojos o no para recoger la luz, para mirar. Es decir, el meme con rigor científico sería este:

Pero el meme con rigor científico ya no hace gracia. Podemos, si queremos, seguir riéndonos usando el meme original, sabiendo que es una broma, pero lo mismo nos toca pasar vergüenza ajena cuando veamos a alguien tomárselo en serio para criticar a la "interpretación de Copenhague".

Merece la pena profundizar más en lo que acabo de explicar. La propiedad de la partícula de haber pasado por la rendija de arriba o por la de abajo (llamémosle observable $\sigma_z $), ¿está bien definida o no lo está? La respuesta es "depende". Si la partícula no deja rastro (no emite luz) cuando está pasando, se produce interferencia, cosa que sólo puede explicarse si $\sigma_z $ no toma un valor bien definido. Pero, si deja rastro (y ese rastro se registra), entonces $\sigma_z $ sí toma un valor bien definido (el que queda grabado en el registro).

Entender esto sólo fue posible con el espíritu de Copenhague. Sólo así los fundadores de la mecánica cuántica pudieron darse cuenta de la conveniencia de evitar hablar de propiedades de los sistemas físicos que no pueden ser medidas (como el observable $\sigma_z $ en los casos en los que hay patrón de interferencia), a no ser que alguna observación o razonamiento de consistencia nos obliguen a ello. Y es esto lo que les permitió construir la mecánica cuántica, ya que cualquier otra alternativa daba lugar a contradicciones. En esta teoría los observables en general no toman valores bien definidos más allá del contexto de la medición (a no ser que la predicción sea del 100% de probabilidad) y, además, el hecho de asignar un valor bien definido puede ocurrir para un observador pero no para otro (o al contrario).

Insisto: los observables son propiedades que no pertenecen en exclusiva al sistema observado, sino al conjunto sistema+aparato de medida. Esta característica de la mecánica cuántica se suele denominar por sus negacionistas como "no realismo". Yo opino que es mejor usar la nomenclatura de Adán Cabello que, en vez de llamarlo "no realismo" lo llama "realismo participativo", ya que la mecánica cuántica, construida con el espíritu de Copenhague, en palabras de Cabello, "no niega la existencia de un mundo objetivo", pero "no se ocupa directamente de propiedades intrínsecas del sistema cuántico observado, sino sobre las experiencias que un observador o agente tiene acerca del sistema observado". En el realismo participativo "las probabilidades de los distintos resultados al medir en la teoría cuántica no están completamente determinadas por propiedades intrínsecas del sistema observado". Las amplitudes de probabilidad son unas u otras en función de lo que el observador decide medir (elección de Heisenberg), y, aun fijando eso, también son relativas a cada observador.

En cambio, a lo que en este contexto se suele llamar "realismo", es decir, a suponer que las probabilidades de los resultados de la medida están determinados por propiedades intrínsecas del sistema observado, Adán Cabello lo llama "realismo intrínseco". La mecánica cuántica no es intrínsecamente realista, como sí lo eran la mecánica clásica y la mecánica estadística clásica. La mecánica cuántica es "realista de forma participativa".

Hay una objeción que se puede hacer al razonamiento anterior en el que he explicado por qué la partícula, al emitir luz, se comporta como si fuera clásica, pasando por sólo una de las dos rendijas. Tenemos una manera en la que podemos saber, en este experimento, que la partícula que emitió luz es cuántica y que, en realidad, no está bien definido por qué rendija pasó. Ésta consiste en considerar la posibilidad de cruzar los dos posibles caminos de la luz emitida por la partícula usando un espejo semirreflector, para hacer interferir los dos caminos, como se muestra en el siguiente dibujo:

Esta es la forma que tenemos de poder medir, usando la luz emitida por la partícula, la fase relativa entre los dos términos de la superposición inicial. Para que haya interferencia constructiva en el detector +, el estado del fotón debe ser

$ | \sigma_x=+1 \rangle_B= \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle_B + \frac{1}{\sqrt{2}} |\sigma_z=-1 \rangle_B $

pero, entonces, hay interferencia destructiva en el detector -. Por otro lado, para que haya interferencias constructiva en el detector - y destructiva en el detector +, el estado debe ser:

$ | \sigma_x=-1 \rangle_B= \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle_B - \frac{1}{\sqrt{2}} |\sigma_z=-1 \rangle_B $

Si trabajamos en esta base de estados, el estado del sistema entrelazado

$ \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle_B |\sigma_z=+1 \rangle_A + \frac{1}{\sqrt{2}} |\sigma_z=-1 \rangle_B |\sigma_z=-1 \rangle_A $

se puede escribir:

$ \frac{1}{\sqrt{2}}|\sigma_x=+1 \rangle_B |\sigma_x=+1 \rangle_A + \frac{1}{\sqrt{2}} |\sigma_x=-1 \rangle_B |\sigma_x=-1 \rangle_A $

con lo que ahora sí hemos podido sumar los dos términos para A que daban lugar al patrón de interferencias. Pero, al contrario que en el caso de la interferencia que se produciría si la partícula no ha emitido luz, ahora hay 2 posibles sucesos, cada uno de ellos con 50% de probabilidad:

  • o bien se detecta luz (B) en el detector +, y en la pantalla (A) la partícula choca siguiendo el patrón de interferencias normal (+).
  • o bien se detecta luz (B) en el detector -, y en la pantalla se observa el patrón de interferencias inverso (-), con los máximos y los mínimos invertidos.

Por tanto, si comparamos los resultados que obtiene un investigador (Bob) al medir propiedades de esa luz con los que obtiene otra investigadora (Alice) al trabajar con la partícula que llega a la pantalla (véase este vídeo de Quantum Fracture), se puede observar una correlación perfecta: siempre que Bob mide +, Alice encuentra en la pantalla un patrón de interferencia, pero cuando Bob mide -, Alice encuentra en la pantalla el patrón de interferencia opuesto (con máximos y mínimos intercambiados).

Es decir, si Alice decide separar los impactos en su pantalla en dos conjuntos, los que correlacionen con el resultado + de Bob, y los que correlacionan con el resultado - de Bob, entonces cada uno de estos dos conjuntos es un patrón de interferencias, PERO SU UNIÓN NO LO ES. Como es un patrón de interferencias, ahora Alice ya no puede decir que la partícula tiene bien definida por qué rendija pasó, es decir, ya no está bien definido el observable $\sigma_z$. Es decir, ha sido el hecho de que Alice ya no tiene acceso a la luz emitida por la partícula junto con la ignorancia de Alice acerca de qué resultados suyos correlacionan con los de Bob los que hacen que el observable $\sigma_z$ tome un valor bien definido (para Alice). Pero se puede seguir probando operacionalmente que en realidad $\sigma_z$ no ha tomado un valor bien definido si Bob le dice a Alice cuáles son sus resultados.

Además, Bob decide si medir el observable $\sigma_z$ (por qué rendija pasó la partícula) o el observable $\sigma_x$ (si la fase relativa es + o es -) mucho después de que el fotón haya interaccionado con la partícula, es decir, mucho después de que la partícula haya pasado por la doble rendija. Una cosa que se ignora bastante en la divulgación de la mecánica cuántica, porque no casa bien con el mito de un Copenhague débil que se quiere difundir, es que este experimento mental lo conocían Bohr y Heisenberg perfectamente, ya que, de hecho, se parece mucho al denominado "telescopio de Heisenberg", que es un sistema formado por un electrón y un fotón entrelazados. Ellos remarcaban en este experimento que Bob decide libremente si medir el observable $\sigma_z$ de la partícula de Alice (midiendo de dónde fue emitida la luz) o el observable $\sigma_x$ de esa partícula (haciendo interferencia con los dos caminos y midiendo si se obtiene + o -. La conclusión de este experimento es que es el contexto de la medición lo que hace que un observable tome o no un valor bien definido. Si Bob mira de qué rendija viene la luz que le llega, entonces Bob asigna un valor bien definido al observable $\sigma_z$ (por qué rendija pasó la partícula). Pero, si Bob usa el espejo semirreflector y los detectores + y -, entonces Bob ya no asigna un valor bien definido al observable $\sigma_z$, pero sí asigna un valor bien definido a $\sigma_x$, al tipo de patrón de interferencia que forma la partícula al impactar contra la pantalla de Alice.

No obstante, en este experimento mental he simplificado demasiado las cosas para que se entiendan mejor, y ya es hora de hacerlo más realista. Hasta ahora sólo he usado dos bits cuánticos, dos qubits entrelazados, el de la partícula y el de la luz emitida por ésta. Pero, en realidad, cuando la partícula emite luz o interacciona con lo que sea mientras está pasando por la doble rendija, este qubit se entrelaza con más de un qubit. Se entrelaza con muchísimos qubits más, a los que vamos a llamar "ambiente" (E, de "Eva", el ambiente se llama Eva) y sobre los que Bob no tiene acceso experimental. La idea es la misma que cuando hay energía que se va a modos ocultos y decimos entonces que "se ha disipado en forma de calor". Por ejemplo, podemos pensar que la partícula ha emitido o ha interaccionado con muchos fotones y que a muchos de ellos Bob no tiene acceso experimental, pero a alguno sí. Los demás se van por ahí al resto del universo y ya no vuelven.

En ese caso, ya no es es posible escribir el estado:

$ \frac{1}{\sqrt{2}}  |\sigma_z=+1 \rangle_E |\sigma_z=+1 \rangle_B |\sigma_z=+1 \rangle_A +$
$+\frac{1}{\sqrt{2}}  |\sigma_z=-1 \rangle_E |\sigma_z=-1 \rangle_B |\sigma_z=-1 \rangle_A $

de la forma:

$ \frac{1}{\sqrt{2}}|\sigma_x=+1 \rangle_B |\sigma_x=+1 \rangle_A + \frac{1}{\sqrt{2}} |\sigma_x=-1 \rangle_B |\sigma_x=-1 \rangle_A $

porque para eso hizo falta sumar términos que ahora están multiplicados por factores de Eva que no son comunes. A este proceso de entrelazamiento con qubits ocultos o inaccesibles se denomina decoherencia. Este proceso implica que ahora Bob, aunque quisiera medir el observable $\sigma_x$ (si vale + o -), vería que sus resultados no están correlacionados con lo que Alice ve en la pantalla, con lo que ya no puede interpretar lo que está haciendo como una "medida" de alguna propiedad de la partícula de Alice. Pero, si Bob decide medir el observable $\sigma_z$, viendo de qué rendija viene la luz que le llega, entonces sí hay correlación con lo que vería Alice si pone la pantalla pegada a la doble rendija, y esto sí se puede entender como una medida, en concreto como una medida de por qué rendija ha pasado la partícula. Es decir, la decoherencia ha hecho que Bob pueda medir el observable $\sigma_z$, pero no $\sigma_x$. Este es el proceso físico responsable de que podamos decir que $\sigma_z$ toma un valor bien definido, pero que $\sigma_x$ no. Ahora, incluso aunque Bob decida no mirar de qué rendija viene la luz, sí podemos decir que la luz viene de una rendija concreta y, por tanto, sí podemos decir que la partícula pasó por una rendija concreta. Ahora sí podemos decir que, a todos los efectos, la partícula es clásica.

Una vez entendemos todo esto, ya podemos detectar falacias, como la que elaboró Schrödinger cuando introdujo el famoso experimento mental del gato encerrado en una caja para tratar de hacer ver que Bohr, Heisenberg y Born habían construido una teoría absurda. ¿Es el observador el que, cuando abre la caja, hace que la propiedad del gato de estar vivo o muerto, tome un valor bien definido? No. Si la partícula pasó por la rendija de arriba, y eso accionó el mecanismo que mató al gato, el gato ya lleva podrido mucho tiempo para cuando decidamos si abrir la caja o no. Fue la decoherencia la que hizo que esa propiedad esté, a todos los efectos, bien definida.

Si quieres esta explicación en podcast, la tienes en este enlace. Ahí explico por qué no se puede obtener ninguna superposición al hacer el experimento de la doble rendija con gatos, ni siquiera aunque éstos sean puntuales. Los gatos, aunque son cuánticos, en la práctica a todos los efectos no lo son.

Hay que remarcar que el lugar donde se pone el corte de Heisenberg, el punto a partir del cuál consideramos al aparato como clásico (en este caso la luz que le llega a Bob), no tiene significado físico, siempre que se haga más allá del proceso de decoherencia. Podemos decir que el observable $\sigma_z$ pasó a estar bien definido en el momento en el que terminó decoherencia (es una exponencial que se va a cero en seguida [Zurek2001]), o podemos seguir arrastrando en nuestras cuentas en el papel todos los términos de la superposición hasta que abramos la caja y, entonces, al ver que el gato está muerto, "colapsemos" nosotros el estado cuántico escrito en nuestro papel y digamos que ha sido nuestra "consciencia" la que ha colapsado la función de onda (como provocativamente sugerían von Neumann y Wigner). Da igual. Eso no tiene significado físico porque el colapso no es un proceso físico ("no es causal" decía von Neumann). Es como trabajar con un gauge u otro en electromagnetismos. Eso no es física, son anotaciones en tu papel. De la misma manera que hay físicos que, para hacer determinados estudios en electromagnetismo, prefieren trabajar con el gauge de Coulomb o con el de Lorentz, y la física es la misma, puedes remarcar, como hacen Landau y Lifshitz, el papel que juega la mecánica clásica en los fundamentos de la mecánica cuántica (ya que el comportamiento clásico de los aparatos de medida que sufren decoherencia es lo que nos permite definir los observables), o bien puedes remarcar el papel del observador consciente. Estás diciendo lo mismo.

Como remarcó von Neumann, el colapso es un proceso completamente diferente a la evolución temporal unitaria. El primero no es físico, ocurre en tu papel, y es irreversible. En cambio la evolución unitaria (entendida como que cambia el estado cuántico o que cambian los observables, da igual), es un proceso físico y es reversible en principio, aunque, si hay decoherencia, será irreversible en la práctica, indistinguible de la mutilación matemática, en tu papel, de la función de onda.

Decir que el gato de Schrödinger está en una superposición cuántica entre estar vivo y estar muerto mientras no abramos la caja es lo mismo que decir que el campo en Portugal está en una superposición cuántica entre estar ardiendo y no estarlo hasta que el humo llegue a Madrid. Una vez el sistema cuántico se ha entrelazado con grados de libertad inaccesibles, de forma efectiva la superposición cuántica y la mezcla estadística son la misma cosa. Podemos decir entonces que el gato está en un estado bien definido de vivo o muerto, pero que no lo sabemos. O podemos seguir insistiendo, y la física es la misma, en que el sistema gato+aparato+ambiente está todavía en una superposición cuántica y somos nosotros, los madrileños egocéntricos, los que colapsamos la función de onda al abrir la caja. Ha habido y hay personas a las que les gusta más contar la cuántica de esta última manera para parecer más interesantes. Wigner y von Neumann podrían ser dos ejemplos, pero entre los divulgadores científicos actuales hay muchos más.

Si te ha costado entender esta explicación de por qué el colapso no es un proceso físico, te recomiendo visionar el vídeo número 12 del Curso de Mecánica Cuántica para Estudiantes de Bachillerato, donde puedes ver un proceso mucho más simple:

 

En el vídeo hablo de que, cuando tomamos el atajo matemático del colapso, si es que lo hacemos porque, repito, no es necesario, lo que estamos haciendo es una actualización de tipo bayesiano de las amplitudes de probabilidad. El colapso, o el "salto en el estado cuántico" que decía Dirac, es una actualización bayesiana de las amplitudes de probabilidad. No es un proceso que ocurra en la naturaleza, sino en la mente del observador o, mejor dicho, en el papel donde este observador escribe la función de onda. No es un salto que ocurre físicamente en el sistema, sino en la libreta del observador. Por eso éste ocurre de forma instantánea en todo el universo. Se puede propagar a velocidad superlumínica porque, al igual que el Halcón Milenario, ese viaje sólo lo hace en la imaginación del observador.

Sobre este aspecto de la mecánica cuántica han incidido mucho autores como Christopher Fuchs y Rüdiger Schack en lo que se conoce como "la interpretación del bayesianismo cuántico" [Fuchs2013]. Pero no es una interpretación nueva. En realidad, lo que están haciendo estos autores es básicamente explicar la misma mecánica cuántica que construyeron Börh, Heisenberg y Born desde la perspectiva del grado de creencia de cada observador. No hay aquí ciencia nueva, pero sí ideas muy útiles para enseñar mecánica cuántica y evitar que se malinterprete.

Como explico en este vídeo, al no ser el colapso un proceso físico, la pregunta de quién colapsó la función de onda, si Alice o Bob, no forma parte de la física. Al realizar cada uno mediciones en un punto distinto del espacio, habrá sistemas de referencia inerciales en los que Bob mide primero y puede apuntar, si quiere, en su libreta que instantáneamente el estado del conjunto formado por su fotón y por la partícula de Alice ha colapsado. A su vez, en otros sistemas inerciales es Alice la que ha medido primero y ella puede apuntar el colapso instantáneo del estado del sistema partícula-fotón en su libreta. Pero son anotaciones en una libreta, actualizaciones bayesianas de las amplitudes de probabilidad. No es ningún proceso que ocurra en la realidad. El entrelazamiento cuántico se manifiesta mediante correlaciones entre los resultados de las mediciones que se hacen a la partícula de Alice y al fotón de Bob (lo cual no tiene nada de mágico porque son dos partículas que interaccionaron en el pasado), pero no es ninguna interacción instantánea a distancia. Cualquier cosa que le haga Bob a su fotón no influye en absolutamente nada en las probabilidades de que Alice vaya a obtener un resultado u otro en sus mediciones. Como si quiere no mirar, como en el meme, da igual.

Otra confusión común de la que se aprovechan los que extienden el mito de un Copenhague débil es pensar que "en la mecánica cuántica hay un tipo de estados que son de superposición cuántica" y que "hay discrepancia en cómo interpretarlos". Pero, en realidad, en cuántica no hay tipos de estados que son de superposición y tipos que no lo son. Para verlo, pensemos, por ejemplo, en la componente z del espín de un electrón. Este observable sólo puede tomar dos valores: +ℏ/2 y - ℏ/2. El espacio de estados del espín del electrón tiene dimensión 2, y es isomorfo al espacio de estados anterior si identificamos $S_z$ con $\hbar \sigma_z/2$. Una base ortonormal sería:

$ \{ |\sigma_z=+1 \rangle , |\sigma_z=-1 \rangle \} $

Todo estado de este sistema es un vector en este espacio vectorial. Se tiene que poder escribir, por tanto, como una combinación lineal de los dos vectores anteriores. Un ejemplo de esto es este estado:

$ \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle + \frac{1}{\sqrt{2}} |\sigma_z=-1 \rangle $

En ese estado, la componente z del espín del electrón no toma un valor bien definido. Si lo hacemos pasar por un aparato de Stern-Gerlach, un 50% de las veces el electrón se desvía hacia arriba, y el otro 50% hacia abajo.

Se trata de un "estado superposición", ¿verdad? Pero, ¿qué pasa si aplicamos el operador "espín del electrón en la dirección del eje x" sobre este estado? Todo estudiante del primer curso de cuántica en la universidad sabe que lo que se obtiene es esto:

$ \hat{S}_x \left( \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle + \frac{1}{\sqrt{2}} |\sigma_z=-1 \rangle \right)=+\frac{\hbar}{2} \left( \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle + \frac{1}{\sqrt{2}} |\sigma_z=-1 \rangle \right) $

Es decir, nuestro "estado superposición" es un autoestado de la componente x del espín. Es un estado en el que la componente x del espín está bien definida, y vale +ℏ/2.

$  |\sigma_x=+1 \rangle = \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle + \frac{1}{\sqrt{2}} |\sigma_z=-1 \rangle $

Si giramos 90º el Stern-Gerlach y repetimos el experimento con el Stern-Gerlach orientado en el eje x, el electrón se va a desviar siempre hacia el mismo lado. Así que nuestro "estado superposición" no es un estado superposición. ¿En qué quedamos?

Resulta que, sea cual sea la combinación lineal que nos inventemos para el estado de espín del electrón

$ \cos (\theta/2) |\sigma_z=+1 \rangle + \sin (\theta/2) \exp{i\phi} |\sigma_z=-1 \rangle $

siempre existe una dirección "n" en la que el espín $S_n=\hbar\sigma_n/2$ , en ese estado, toma un valor bien definido, con lo que ese estado ya no se escribe como superposición.

$  | \sigma_n = +1 \rangle =  \cos (\theta/2) |\sigma_z=+1 \rangle + \sin (\theta/2) \exp{i\phi} |\sigma_z=-1 \rangle $

Y esto que hemos descrito para el espín del electrón ocurre para todos los sistemas cuánticos: en mecánica cuántica no ocurre que unos estados sea superposición y otros no. Serlo, o no, es relativo al observable considerado. Ser superposición o no es relativo a la base ortonormal en la que estamos trabajando. Es relativo a con qué ángulo oriento el aparato Stern-Gerlach del ejemplo que he puesto, que es el ejemplo más sencillo de todos.

En mecánica cuántica, sea cual sea la base ortonormal que elijamos para el espacio de Hilbert de los estados cuánticos, sea cual sea el operador hermítico que elijamos, siempre hay un aparato que mide el observable correspondiente. Al igual que ocurre con el experimento de la doble rendija, en el que la interacción con el campo electromagnético (emisión de luz) hace que pase a estar bien definido por qué rendija pasa la partícula, la interacción del sistema con el aparato de medida orientado en la dirección del vector $n$ provoca un entrelazamiento con el aparato y con el ambiente que hace que, a todos los efectos, el sistema se comporte como si el espín en la dirección $n$ tome un valor bien definido. 

Si quieres, para hacer las cuentas más rápido, puedes escribir que la función de onda ha colapsado, pero, como hemos explicado antes, no hay ningún colapso. Como explica magistralmente bien Sidney Coleman en este vídeo, todas las interacciones físicas tras decoherencia se comportan como si hubiera un colapso, como si el aparato fuera clásico. No existe un colapso que elimina la superposición, pero lo que sí existe es un entrelazamiento con grados de libertad que pierdes, y que hace que la base correspondiente a la dirección n sea privilegiada y que, a todos los efectos, $S_n$ tome un valor bien definido:

$ C^´_+ | \sigma_n=+1 \rangle_E | \sigma_n=+1 \rangle_{Ap} | \sigma_n=+1 \rangle_e +$
$+C^´_- | \sigma_n=-1 \rangle_E | \sigma_n=-1 \rangle_{Ap} | \sigma_n=-1 \rangle_e $

Pero el estado tras decoherencia es autoestado de otro observable que, si pudiéramos medirlo (juntando al electrón e, el aparato Ap y todo el ambiente E), tendríamos 100% seguridad de qué valor toma (pero entonces no habría registro de si $S_n$ es +ℏ/2 o -ℏ/2). Es decir, el mundo clásico, en el que $S_n$ es +ℏ/2 o -ℏ/2, es emergente, fruto de la interacción de los sistemas cuánticos y de que después se desacoplen y se vaya cierta información. Esta interacción es la que permite la observación y, a la vez, la que rompe la simetría que hay entre todos los observables. Pero, pero si no se perdiera el acceso a los grados de libertad del ambiente, no habría observables privilegiados, no habría bases de estados privilegiadas, con lo que no podríamos asignar significado físico a los distintos observables, a las distintas maneras de descomponer el espacio de Hilbert en subespacios ortogonales.

Esto explica por qué la mecánica cuántica tuvo que construirse haciendo interaccionar al sistema cuántico con un aparato clásico que, al interaccionar con el ambiente y asignar un privilegio a un observable concreto, permite asignar realidad al resultado concreto obtenido, y que, insistimos, no es una propiedad intrínseca del sistema cuántico, sino del conjunto sistema+aparato cuando perdemos el acceso a los grados de libertad del ambiente. A esto se refería Heisenberg cuando comentó que la realidad es diferente en función de la observación que se haga. La mecánica cuántica no niega que exista una realidad, pero esa realidad no es lo que teníamos previamente en la cabeza. Es una realidad participativa.

Hugh Everett, en su tesis doctoral, obsesionado con resolver un problema de la medida que no existe, intentó asignar la categoría de "realidad" al estado cuántico

$ C^´_+ |\sigma_n=+1 \rangle_E |\sigma_n=+1 \rangle_{Ap} |\sigma_n=+1 \rangle_e +
$+C^´_-|\sigma_n=-1 \rangle_E |\sigma_n=-1 \rangle_{Ap} |\sigma_n=-1 \rangle_e $

Es decir, aunque los estados cuánticos colapsados son relativos al observador, siempre se puede, aunque sea engorroso, escribir el estado cuántico del sistema completo como un entrelazamiento entre partes del universo que ya están desconectadas causalmente, e intentó concluir que ese estado cuántico no es relativo a ningún observador, sino que es universal (el estado de todo el universo), y que podemos decir que lo único que existe en realidad es ese estado cuántico de todo el universo.

Pero, claro está, este estado en realidad no es universal, porque, ya de por sí, es relativo al observador que preparó el estado inicial del experimento. Siguiendo las intenciones de Everett de nunca colapsar el estado en tu libreta, ese estado inicial, antes de que el electrón interaccionara con el aparato y con el ambiente

$  |\sigma_x =+1 \rangle_e = \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle_e + \frac{1}{\sqrt{2}} |\sigma_z=-1 \rangle_e $

con el que empezamos el experimento no debería estar colapsado, sino que debería ser un estado entrelazado que considere todo el universo, ya que el único estado cuántico que podríamos considerar que no es relativo al observador es el de todo el universo. 

Pero, y aquí viene el punto importante donde es necesario el espíritu de Copenhague para no llegar a ninguna contradicción: ¿por qué va a ser ese "estado cuántico universal", que jamás vas a poder escribir, más "real" que los estados cuánticos relativos al observador (y que contienen el máximo conocimiento de éste)? Los estados cuánticos relativos al observador sí los puedo definir operacionalmente de forma objetiva: dos observadores en exactamente la misma situación en el mismo experimento van a escribir en su papel la misma función de onda. Y esa función de onda tiene un significado bien definido: son las amplitudes de probabilidad de obtener un resultado u otro.

Cuando tengo un subsistema aproximadamente clásico, puedo definir operacionalmente el estado cuántico relativo al observador que usa ese subsistema como aparato de medida. Pero el estado cuántico de todo el universo no lo puedo definir operacionalmente. Ni siquiera puedo decir que está formado por amplitudes de probabilidad, porque, para eso, necesito expresar ese vector en una base ortonormal concreta y, sin aparato de medida, sin decoherencia, sin observador, no tengo ningún mecanismo que me dé alguna base privilegiada para obtener, a partir de ese vector, una función de onda. Por eso Heisenberg decía que, si considero el estado cuántico de todo el universo "entonces la física desaparece y sólo queda un aparataje matemático" [Heisenberg1930]. Es decir, de acuerdo con el espíritu de Copenhague, si ese estado de todo el universo no se puede definir operacionalmente, ¿a ver si va a ser que es como el tiempo absoluto? ¿A ver si resulta que el estado del universo es un mito?

Hay una cosa que no podemos evitar: el estado preparado con el que empezamos a hacer nuestro cálculos al principio del experimento ya estaba colapsado. Al final, todos los estados cuánticos con los que podemos trabajar son estados relativos al observador. Todos los estados cuánticos son justamente lo que el observador conoce a partir de las observaciones pasadas. Si nos empeñamos en romper este link entre la realidad y los estados cuánticos, entonces no nos queda nada, porque esa es precisamente la definición de estado cuántico. El estado cuántico de todo el universo del que hablaba Everett es algo completamente ajeno a la ciencia, no tiene conexión con el mundo real. Por mucho que intentemos considerarlo en la teoría, no se puede. Por ello Everett, con las correcciones que le hizo Wheeler, en vez de desarrollar una interpretación nueva de la mecánica cuántica, acabó redescubriendo el realismo participativo de Copenhague, al aceptar que todos los estados cuánticos con los que podemos trabajar son relativos al observador. Lo mires como lo mires, acabas asumiendo que los únicos estados cuánticos que tienen significado son aquellos que son relativos al observador, acabas asumiendo el realismo participativo.

El trabajo que hizo Everett no aportó nada relevante nuevo a la ciencia. Como mucho, lo que podemos sacar de ahí, al igual que con el bayesianismo cuántico, son ideas para enseñar la misma mecánica cuántica de Böhr, Heisenberg, Born y Pauli, pero con otro enfoque.  Algo parecido le pasa a la "interpretación relacional" de Carlo Rovelli. Éste afirma que "La mecánica cuántica es una teoría sobre la descripción física de los sistemas físicos en relación con otros sistemas, y esta es una descripción completa del mundo" [Rovelli1996]. Lo de Everett, Rovelli y el bayesianismo cuántico no son nuevas interpretaciones de la mecánica cuántica, como algunos piensan. Son lo que ya había, explicado de otra manera.

Hay quién, llegado este punto, se pone nervioso al creer que la mecánica cuántica no nos da ningún instrumento para eliminar, del estado de todo el universo, todas aquellas posibilidades que no se realizan, posibilidades que Everett no llamó mundos, sino "ramas".

$ C^´_+ |\sigma_n=+1 \rangle_E |\sigma_n=+1 \rangle_{Ap} |\sigma_n=+1 \rangle_e +$
$+C^´_-|\sigma_n=-1 \rangle_E |\sigma_n=-1 \rangle_{Ap} |\sigma_n=-1 \rangle_e $

Es verdad que, si eliminamos en nuestro papel sumandos de esa superposición, nos la jugamos a hacer predicciones erróneas, ya que, en principio, aunque en la práctica sea imposible, podrías hacer interferir todos esos sumandos (juntando de nuevo todos los grados de libertad del sistema, el aparato, el ambiente y del que mira el aparato) para medir un observable diferente, perdiéndose todo registro de lo que se midió para $\sigma_z$ (y muriendo el que miró el aparato). Todos estos qubits estarían en una superposición cuántica para siempre y estamos atrapados en el "problema de la medida". Sin embargo, no existe tal problema, porque al hacer eso nos estamos olvidando de cuál es el significado de los estados cuánticos y qué significa que éstos se puedan escribir en tu libreta como superposición de otros estados. Vamos a verlo:

Pensemos, por ejemplo, en la superposicón cuántica anterior:

$ |\sigma_x =+1 \rangle_A = \frac{1}{\sqrt{2}}|\sigma_z=+1 \rangle_A + \frac{1}{\sqrt{2}} |\sigma_z=-1 \rangle_A $

Muchas veces lo que se divulga es que en este estado la partícula de Alice está en la rendija de arriba y en la de abajo a la vez. Pero una superposición no es lo mismo que una conjunción lógica "y". El único significado de la función de onda es que da amplitudes de probabilidad. Esta superposición significa que hay un 50% de probabilidad de que la partícula esté en la rendija de arriba y un 50% de que esté en la de abajo. No es "y". Es "o" (excluyente).

Pero esta respuesta es incompleta, porque no distingue a la mecánica cuántica de lo que sería una teoría clásica en la que la posición de la partícula está bien definida pero no sé cuál es. No distingue a una superposición cuántica de una simple mezcla estadística. En ese estado, el valor del observable $\sigma_z$ no es que sea desconocido, es que no está bien definido.

Hay que añadir algo más a la respuesta de que una superposición cuántica es el operador lógico "o" (excluyente). Lo que hay que añadir es algo que tiene en cuenta también la fase relativa entre los dos estados que estás superponiendo. Lo que hay que añadir es que en ese estado superposición de estar en la rendija de arriba y estar en la rendija de abajo, es un estado en el que el observable $\sigma_x$ está bien definido y vale +1. La fase relativa es importante porque, si en vez de ser 0 grados, fuera 180 grados, entonces $\sigma_x$ valdría -1.

La superposición cuántica tiene ese doble significado, y muchos de los malentendidos que ocurren se deben a que alguien se olvida de alguno de esos dos significados. La decoherencia hace que la superposición cuántica pierda de forma efectiva el segundo significado, porque se pierde el acceso a las fases relativas. Pero, y este es el punto importante, esa superposición cuántica sigue conservando el primer significado. No es cierto, por tanto, que "la mecánica cuántica no nos dé ningún instrumento para eliminar todas las posibilidades que no se realizan en la superposición cuántica con la que hemos escrito el estado de todo el universo".

$ C^´_+ |\sigma_n=+1 \rangle_E |\sigma_n=+1 \rangle_{Ap} |\sigma_n=+1 \rangle_e +$
$+C^´_-|\sigma_n=-1 \rangle_E |\sigma_n=-1 \rangle_{Ap} |\sigma_n=-1 \rangle_e $

Claro que lo da, porque el significado de esa expresión es precisamente dar las amplitudes de probabilidad de que un resultado se realice y los demás no. Si escribimos expresiones en nuestra libreta y se nos olvida lo que significan, podemos acabar pensando, para que se obtenga sólo un resultado, que es necesario un instrumento para que se borren los demás sumandos de la superposición. Pero los estados cuánticos no significan eso. Ese problema lo tendrán otras teorías (que nadie ha construido de forma consistente) donde los estados cuánticos significan otra cosa, pero no lo tiene la mecánica cuántica. Cuando medimos obtenemos un resultado. Y, ¿eso es un problema? No. La mecánica cuántica nos dice que se obtiene sólo un resultado. Sería un problema si no fuera así.

La mecánica cuántica no te dice qué resultado va a salir. Lo único que puede dar es las probabilidades de cada posible resultado. Eso no es un problema salvo para el que se niega a aceptar la realidad. En palabras de Born, en su discurso en la ceremonia de entrega del premio Nobel que le dieron en 1954, "el determinismo de la física clásica resulta ser una ilusión creada al sobrevalorar algunos conceptos lógicomatemáticos. Es un icono religioso, no un ideal de lo que debe ser la investigación científica, y no puede, por tanto, utilizarse como una objeción a la interpretación esencialmente indeterminista del mundo que hace la mecánica cuántica".

Merece la pena leer este texto de Kuhn, extraído de su obra más conocida, La estructura de las revoluciones científicas:

"¿Puede realmente derivarse la dinámica de Newton de la dinámica relativista? ¿Cómo sería esa derivación? Imaginemos un conjunto de enunciados, E1, E2, ..., En, que, en conjunto, abarcaran las leyes de la teoría de la relatividad. Estos enunciados contienen variables y parámetros que representan la posición espacial, el tiempo, la masa en reposo, etc. A partir de ellos, con ayuda del aparato de la lógica y la matemática, puede deducirse todo un conjunto de enunciados ulteriores, incluyendo algunos que pueden verificarse por medio de la observación. Para probar lo apropiado de la dinámica newtoniana como caso especial, debemos añadir a los Ei enunciados adicionales, como $(v/c)^2 << l$, que restringen el alcance de los parámetros y las variables. Este conjunto incrementado de enunciados es manipulado, a continuación, para que produzca un nuevo conjunto, N1 N2 ..., Nm que es idéntico, en la forma, a las leyes de Newton sobre el movimiento, la ley de gravedad, etc. Aparentemente, la dinámica de Newton se deriva de la de Einstein, sometida a unas cuantas condiciones que la limitan.

Sin embargo, la derivación es ilegítima, al menos hasta este punto. Aunque el conjunto Ni es un caso especial de las leyes de la mecánica relativista, no son las leyes de Newton. O, al menos, no lo son si dichas leyes no se reinterpretan de un modo que hubiera sido imposible hasta después de los trabajos de Einstein. Las variables y parámetros que en la serie einsteiniana E1 representaban la posición espacial, el tiempo, la masa, etc., se presentan todavía en Ni; y continúan representando allí espacio, tiempo y masa einsteinianos. Pero las referencias físicas de esos conceptos einsteinianos no son de ninguna manera idénticos a las de los conceptos newtonianos que llevan el mismo nombre. (La masa newtoniana se conserva; la einsteiniana es transformable por medio de la energía. Sólo a bajas velocidades relativas pueden medirse ambas del mismo modo e, incluso en ese caso, no deben ser consideradas idénticas). A menos que cambiemos las definiciones de las variables en Ni los enunciados derivados no serán newtonianos. Si las cambiamos, no podremos de manera apropiada decir que hemos derivado las leyes de Newton, al menos no en cualquiera de los sentidos que se le reconocen actualmente al verbo "derivar". Por supuesto, nuestra argumentación ha explicado por qué las leyes de Newton parecían ser aplicables. Al hacerlo así ha justificado, por ejemplo, a un automovilista que actúe como si viviera en un universo newtoniano. Una argumentación del mismo tipo se utiliza para justificar la enseñanza por los agrimensores de la astronomía centrada en la Tierra. Pero la argumentación no ha logrado todavía lo que se proponía. O sea, no ha demostrado que las leyes de Newton sean un caso limitado de las de Einstein, ya que al transponer el límite, no sólo han cambiado las formas de las leyes; simultáneamente, hemos tenido que modificar los elementos estructurales fundamentales de que se compone el Universo al cual se aplican.

Esta necesidad de cambiar el significado de conceptos establecidos y familiares, es crucial en el efecto revolucionario de la teoría de Einstein".

De la misma manera que, como explica Kuhn, la relatividad de Einstein nos obliga a reinterpretar la física de Newton para poder decir que la física de Newton es un caso límite de la de Einstein, la mecánica cuántica nos obliga a reinterpretar la mecánica clásica. La mecánica clásica es un caso límite de la cuántica que surge bajo ciertas condiciones en cierto grado de aproximación, pero lo que surge no es exactamente la mecánica clásica que conocíamos. Tras el descubrimiento de la mecánica cuántica, estamos obligados a volver a interpretar la mecánica clásica. Que el momento magnético de un electrón apunte hacia arriba ya no significa lo mismo que antes de la cuántica, aunque lo hayamos medido. Es decir, el mundo clásico, en el que $S_n$ es +ℏ/2 o -ℏ/2, es emergente, fruto de la interacción de los sistemas cuánticos y de que, después, se desacoplen y se vaya (o se esconda) cierta información (lo que llamamos las coherencias, simplificando mucho, las fases relativas). Los "hechos" de la mecánica clásica anterior a la cuántica no tienen exactamente el mismo significado que los "hechos" clásicos que surgen al hacer una medición en cuántica, aunque ese observable tome un valor bien definido, en buena aproximación, porque ha ocurrido decoherencia.

Diapositiva de la conferencia de Coleman "Quantum mechanics in you face"

Y aquí creo que está la raíz del problema que tienen algunos para entender y aceptar la mecánica cuántica. Intentan reinterpretar la cuántica para que te diga qué resultado va a salir al medir. No lo consiguen, y acaban afirmando que la mecánica cuántica tiene un problema al que también denominan "problema de la medida". Pero el problema de la medida no existe. La cuántica da solo probabilidades y eso es todo lo que la física puede hacer.

Lo que hay que hacer es lo contrario. La teoría que hay que reinterpretar es la mecánica clásica, para que ésta coincida con un caso límite de la mecánica cuántica. El nuevo paradigma sustituye al nuevo, no al revés. La física clásica es emergente, una aproximación de la cuántica, no al revés. ¿Eso es un problema? ¿Por qué?

En resumen, en el hombre de paja que algunos llaman "Copenhague", la función de onda colapsa y existe el problema ("problema de la medida") de cómo y cuándo ocurre este colapso. Pero la función de onda no es un ente físico en la teoría de verdad que construyeron los científicos de Copenhague. Es un ente matemático que agrupa las amplitudes de probabilidad, es decir, el conocimiento máximo que puede un observador tener de un sistema cuántico. El colapso lo pones donde quieres, después de decoherencia, y es simplemente una actualización bayesiana de las amplitudes de probabilidad. Cuando von Neumann puso el corte de Heisenberg en la consciencia, eso tampoco es física, ya que el lugar donde pongas ese corte no tiene significado físico, siempre que sea después de decoherencia. Parece, por tanto, que el problema de la medida es un problema que sólo tienen aquellas personas que no aceptan que todo lo que la física puede hacer es dar probabilidades. Puede pasar que, si nos acostumbramos a hacer cálculos con estados cuánticos sin saber lo que significan y no tenemos en cuenta el primer significado mencionado anteriormente (dar la probabilidad de que ocurra un suceso, solo uno), nos empeñemos en intentar que la teoría nos dé de forma determinista un estado cuántico colapsado y, al no poder hacerlo, pensemos erróneamente que la teoría tiene un problema. También nos puede pasar eso si directamente negamos algún postulado de la mecánica cuánticas de los que he descrito en la sección anterior. Pero, si nos ceñimos a esos postulados y recordamos en todo momento qué es un estado cuántico, la teoría que se obtiene es satisfactoria, no sólo experimentalmente, sino a todos los niveles.


Las malinterpretaciones intrínsecamente realistas de tipo psi-óntico

Estas "interpretaciones" se diferencian de la mecánica cuántica descrita hasta ahora en este articulo en dos aspectos importantes:

  • abogan por un realismo intrínseco, es decir, las probabilidades de los resultados de las medidas están determinadas por propiedades intrínsecas del sistema cuántico.
  • Consideran también que el estado cuántico no es relativo al observador, no es una propiedad del conjunto sistema+aparato de medida, sino que es una propiedad intrínseca del sistema cuántico (la función de onda es óntica). 

Es decir, estas propuestas surgen de malinterpretar la mecánica cuántica y pensar que el estado cuántico que un físico concreto, un observador, escribe en su libreta para hacer los cálculos de las probabilidades existe realmente y es una propiedad sólo del sistema cuántico. Sería algo así como pensar que alguno de los sistemas de referencia inerciales que usamos para trabajar en relatividad especial es en realidad el sistema de referencia absoluto, el que está en reposo absoluto, que todos los demás se mueven pero que él no, creer así que las velocidades absolutas existen. Esto sería análogo también a pensar que, si usamos el gauge

$A_x=-By$

$A_y=+Bx$

para describir un campo magnético uniforme y constante $B$ en la dirección del eje z, entonces las simetrías de traslación y de rotación en el plano XY están rotas en la naturaleza. Sería como no entender el electromagnetismo y asignar significado físico al gauge concreto en el que estás trabajando en tu papel. En esta configuración hay simetría en la naturaleza de rotación y de traslación en el plano XY, aunque tu libreta no lo diga.

Por ello, estas "interpretaciones" ya se encuentran con problemas al preguntar qué estado cuántico es el bueno, ¿el que existe, el que escribe Alice para el sistema, el que escribe Bob, el que escribe Wigner, el que escribe su amiga, el que escribes tú, el que escribo yo, el que escribe aquella computadora? Este problema no lo tiene la mecánica cuántica, ya que en la mecánica cuántica los estados son relativos. Es un problema exclusivo de las "interpretaciones" intrínsecamente realistas de tipo psi-óntico.

Como puede verse claramente, aquí sí hay ahora un "problema de la medida" ya que ahora el colapso no es un proceso matemático de actualización bayesiana de amplitudes de probabilidad, sino que es un proceso físico y, por tanto, hay que explicar cuándo y dónde ocurre, o bien, y esta es otra alternativa psi-óntica, hay que explicar cómo es posible que, siendo el estado cuántico una propiedad intrínseca del sistema cuántico, el colapso no ocurra.

 

La malinterpretación de los "muchos mundos"

Uno de los ejemplos más famosos de una "interpretación" de este tipo es la "interpretación de los muchos mundos". Esta interpretación surge de tergiversar lo que acabó escribiendo Everett y llamar "mundos" a cada una de las "ramas" del trabajo de Everett que, recordemos, son simplemente los sumandos de las superposiciones cuánticas. Esta "interpretación" asume que el estado cuántico existe realmente, pero niega que haya colapso para evitar tener el problema de la medida. Y hace esto suponiendo que cada uno de los términos de la superposición cuántica son mundos, que nosotros vivimos en uno de ellos, pero que los demás también existen. 

Esta "interpretación" es un completo disparate, por muchos motivos. Es imposible describir ninguna manera de ramificar el mundo de una forma compatible con el resto de principios de la física, incluso es imposible de compatibilizar con los principios filosóficos más básicos. Pero aquí voy a hablar sólo de física.

Uno de los motivos que hacen absurda a la "interpretación de los muchos mundos" que voy a remarcar es que, en mecánica cuántica, como he explicado en la sección anterior, los estados no se dividen entre los que son superposición y los que no lo son. Cuánticamente no hay bases de estados privilegiadas, no hay observables privilegiados. Pretender que sí los hay, y separar los estados cuánticos en "los que son superposición" y "los que no lo son" para tratar de interpretar así de forma intrínsecamente realista la mecánica cuántica es equivalente a decir que la dirección "z" es más privilegiada que la "x" (recordemos la discusión anterior acerca del espín del electrón.). Pero esto es imposible. Los ejes "x", "y" y "z" no existen en la naturaleza. Los pones tú. No hay direcciones privilegiadas. Por eso fue tan importante el trabajo de Pauli, acerca del espín del electrón, para aclarar el significado de los conceptos de la mecánica cuántica: en el espacio de estados del espín del electrón es donde mejor se ve que no hay observables privilegiados porque eso implicaría direcciones privilegiadas.

Como he explicado en la sección anterior, como no hay observables privilegiados ni bases de estados privilegiadas, no hay un mundo clásico detrás de todo esto. Cada mundo clásico que puede surgir es emergente, una aproximación. Así que es absurdo interpretar una superposición cuántica diciendo que "hay muchos mundos". El motivo: esos "mundos" son clásicos y son relativos. No existen. Sólo hay un mundo que existe, y es cuántico.


Las malinterpretaciones del colapso objetivo

Estas propuestas consisten en sustituir la mecánica cuántica por una teoría clásica en la que hay un campo clásico que satisface la ecuación de Schrödinger. La función de onda es este campo clásico. Es decir, al igual que la idea inicial que tenía Schrödinger cuando construyó su mecánica ondulatoria (y que no funcionó y fue abandonada cuando Born se dio cuenta de que la función de onda lo que daba eran amplitudes de probabilidad), en estas "interpretaciones" la función de onda es un ente con existencia física real, análoga al campo electromagnético clásico. En esto consiste, por ejemplo, la hipótesis del colapso objetivo de Ghirardi-Rimini-Weber (GRW). Pero hacer esto conlleva muchas más dificultades que construir simplemente una teoría de campos clásica y, además, lo que se consigue no es una "interpretación de la mecánica cuántica", sino una teoría (o prototeoría, porque no llega ni a eso) con predicciones distintas a la mecánica cuántica.

En primer lugar, ya hemos explicado que la función de onda no tiene dominio en el espacio físico tridimensional (eso sólo ocurre en la mecánica cuántica de una sola partícula sin espín ni ningún otro grado de libertad), sino en el espacio de todos los posibles sucesos al realizar un experimento.

En segundo lugar, aunque consideremos sólo a una partícula cuyos grados de libertad son sólo las coordenadas "x", "y" y "z", la ecuación de Schrödinger hace que el paquete de ondas se propague por todo el espacio, dando lugar a superposiciones de estados macroscópicos que no serían ningún un problema si la función de onda diera simplemente amplitudes de probabilidad, pero que aquí sí lo son. Aquí sí se podrían observar esas superposiciones, es decir, aquí sí hay un problema de la medida. Para evitar este problema, esta propuesta necesita postular que de vez en cuando la función de onda sufre espontáneamente un colapso objetivo en determinados instantes aleatorios, con un tiempo característico T. Esta modificación de la evolución que dicta la ecuación de Schrödinger es una especie de decoherencia inducida artificialmente y sin interacción con el ambiente para prevenir a la función de onda de haberse propagado demasiado, para evitar que se formen superposiciones indeseables que no se observan. Para eso introducen también una longitud característica R que nos da el tamaño máximo de los paquetes de onda (superposiciones de estados con distinta posición asociada) que sobreviven al colapso espontáneo.

Nótese que esta hipótesis está asumiendo que cada partícula existe de forma definida y tiene su propio contador, cosa que no ocurre en mecánica cuántica aplicada a los campos, ya que lo genérico son estados en los que el número de partículas no está bien definido. Es decir, esta propuesta niega toda la teoría cuántica de campos. Niega el modelo estándar de la física de partículas. Niega la teoría comprobada experimentalmente con mayor precisión de la historia de la ciencia.

Los defensores de esa propuesta intentan poner un tiempo característico de colapso espontáneo cada muchos millones de años para que esta hipótesis no se puede comprobar y, a la vez, intentar que las predicciones sean parecidas a las de la mecánica cuántica (la mecánica cuántica aplicada a partículas individuales, claro está, porque para todos los demás sistemas cuánticos como campos y cuerdas esta propuesta no funciona). Pero entonces no se consiguen evitar las superposiciones que quieren eliminar. Y, si consiguen evitar esas superposiciones, entonces las predicciones son demasiado distintas a las de la mecánica cuántica y esta propuesta queda descartada.

Nótese, además, que, al introducir el colapso en la función de onda en la representación de posición, están haciendo que la transformada de Fourier de esta función, la función de onda en la representación de momentos, aumente su indeterminación en el momento lineal, con lo que estos colapsos son impulsos adicionales aleatorios que se le está dando a la partícula que, aunque pequeños, afectarían a la física de la materia condensada y también a la química. Cambiaría la física de los superconductores, la física molecular, la física del estado sólido... Por ello, podemos decir que esta propuesta, en vez de ser una interpretación, es una alternativa ingenua que ignora las investigaciones y los experimentos realizados durante el último siglo.

Pero es peor todavía. Esta propuesta ignora los motivos por los que se produjo la revolución cuántica: la imposibilidad de entender con la mecánica estadística clásica el espectro de radiación del cuerpo negro o el calor específico de los sólidos. Recordemos que Planck tuvo que postular que la luz estaba formada por cuantos. Hoy en día sabemos que son estados mutuamente excluyentes del campo electromagnético cuántico que corresponden a un número distinto de fotones. Dos estados que están infinitesimalmente cercanos en el espacio de Hilbert, además de no ser excluyentes, son físicamente indistinguibles en mecánica cuántica, ya que dan amplitudes de probabilidad casi iguales de que ocurran los mismos sucesos y, por eso, en mecánica estadística cuántica, sólo sumamos para los distintos estados excluyentes (perpendiculares) que corresponden a un número bien definido y distintos de fotones. Esto evita la catastrofe ultravioleta. En el caso de un sólido, si consideramos que la función de onda de cada partícula que lo forma es como un campo clásico, entonces funciones de onda infinitesimalmente parecidas representan estados mutuamente excluyentes y, al hacer mecánica estadística, habría que sumar para todos ellos. Tendríamos demasiados sumandos. El calor específico saldría enorme, un valor disparatado alejadísimo de lo que nos dan los experimentos. Sólo el éxito experimental de la mecánica estadística cuántica aplicada a tantos sistemas distintos como se ha hecho en el último siglo ya nos dice que la función de onda es sólo un ente matemático cuya única conexión con el mundo físico es que nos da amplitudes de probabilidad, no una onda clásica con existencia real.


La mecánica bohmiana

La propuesta del colapso objetivo no es la única propuesta en la que se asume que la función de onda es algún tipo de onda clásica. Esta idea ya viene desde la época en que la mecánica cuántica se estaba terminando de construir. De Broglie tampoco aceptaba que fueran amplitudes de probabilidad lo que nos da la función de onda e intentó hacer una teoría de onda-piloto en la que cada partícula tiene una posición y cantidad de movimiento bien definidos, pero donde hay una onda objetiva que crea un potencial que afecta al movimiento de la partícula para llevarla a las zonas donde hay interferencia constructiva y alejarla de las de interferencia destructiva.

Afortunadamente, no se le hizo mucho caso a toda esta "superconstrucción innecesaria", como dijo Einstein, pero en los años 50 del pasado siglo David Bohm promovió y amplió esta hipótesis para extenderla a sistemas de muchas partículas e intentar hacer una "teoría de la medida" que resuelva los problemas que tenia el hombre de paja al que llamaba "intepretación de Copenhague".

Según la mecánica bohmiana, la función de onda es una onda con existencia física real, pero tiene asociada una magnitud física clásica, la posición de la partícula, que es un observable privilegiado que existe objetivamente en todo instante de tiempo. Está claro, por tanto, que esta propuesta surge de malinterpretar qué son los observables en mecánica cuántica, ya que entre éstos no hay ninguno privilegiado. Esto se ve muy bien si intentamos aplicar esta idea de de Broglie y Bohm al espín del electrón. ¿Cuál es el observable que existe objetivamente en todo instante de tiempo, que es guiado por la onda y que vale siempre +ℏ/2 o -ℏ/2? ¿Es $S_z$? ¿Es $S_x$? Eso rompería la simetría de rotación que existe en la naturaleza. Ese observable, además, tendría que pegar saltos discontinuos. ¿Cuándo y cómo se producen estos saltos? Si aceptáramos la mecánica bohmiana estaríamos volviendo a tener lo mismos problemas con los saltos que se tenían antes de construirse la mecánica cuántica y que la mecánica cuántica resolvió.

No le queda otra a la mecánica bohmiana que entender el espín de las partículas como un grado de libertad de distinta naturaleza que la posición y la velocidad. Pero esto es completamente absurdo, porque el espín no es más que un momento angular intrínseco, que se suma al resto de momentos angulares y que no es posible distinguir de éstos porque las partículas en realidad pueden ser compuestas. Y cuando aplicamos esto a los campos es todavía peor, porque observables que los bohminanos entenderían como existentes objetivamente en cada instante de tiempo acaban evolucionando a observables a los que no se puede aplicar esta idea. A su vez, en mecánica bohminana, donde las partículas tienen posiciones bien definidas, no se pueden tener estados en los que el número de partículas no esté bien definido, contradiciendo así toda la física de partículas del último siglo.

Otro problema de la mecánica bohminana es que en ella necesita, para funcionar, interacciones físicas que se propagan más rápido que la luz, de forma instantánea, ya que la onda-piloto es claramente no local. Esto viola la relatividad especial y hace imposible que se pueda hacer una versión relativista de esta teoría que explique el mundo de la física de partículas. En cambio, la mecánica cuántica sí se pude aplicar a modelos relativistas mediante la teoría cuántica de campos. Es decir, si la física cuántica de este mundo no fuera la mecánica cuántica de Bohr, Heisenberg y Born, sino que fuera bohminana, ésta no se podría reconciliar con los principios de la relatividad especial y con todos los resultados experimentales espectaculares del modelo estándar de la física de partículas, como sí se puede hacer perfectamente en el caso de la mecánica cuántica de Copenhague mediante la teoría cuántica de campos. Los resultados que surgen de la unión de los principios de la mecánica cuántica con los de la relatividad (como creación de partículas) son imposibles de reproducir con la mecánica  bohminana.


En resumen, aunque Bohm quería que la mecánica bohmiana diera lugar a las mismas predicciones experimentales que la mecánica cuántica, se trata de un propuesta fallida incapaz de explicar la física actual mejor establecida. La mecánica bohminana no es una intepretación de la mecánica cuántica.


Las malinterpretaciones intrínsecamente realistas de tipo psi-epistémico

Estas "interpretaciones" también son intrínsecamente realistas, es decir, asumen que las probabilidades de los resultados de las mediciones están determinadas sólo por propiedades intrínsecas del sistema cuántico, pero se diferencian de las de tipo psi-óntico en que las de tipo psi-epistémico el estado cuántico no es una propiedad intrínseca del sistema cuántico, sino que representa el conocimiento que tiene un observador acerca de una realidad objetiva subyacente en un sentido análogo a lo que ocurre en la mecánica estadística clásica en el que el sistema se encuentra en un punto del espacio de fases concreto pero, como no lo sabemos, asignamos probabilidades a cada punto del espacio de fases. La función de onda es, por tanto, epistémica, nos da las probabilidades que asignamos a que el sistema se encuentre en un punto del espacio de fases u otro.

Por tanto, estas "interpretaciones" surgen de negar el principio de indeterminación y malinterpretar las relaciones de incertidumbre al considerar que los sistemas cuánticos en realidad sí tienen, en cada estado microscópico, bien definido en qué punto de cierto espacio de fases se encuentran, sólo que no lo sabemos, y de ahí la incertidumbre.

Pero negar el principio de indeterminación no sale gratis. Ya hemos explicado anteriormente que éste tiene consecuencias brutales sobre la física que se estaba haciendo hasta su descubrimiento. Tanto en la física de Newton como en la relativista de Einstein, dando las posiciones y las velocidades iniciales, podíamos obtener en principio las posiciones y las velocidades en cualquier instante posterior o anterior. Pero, en mecánica cuántica, para hacer física tenemos que hacer interaccionar al sistema cuántico con un aparato aproximadamente clásico para definir así los observables. Vamos a profundizar un poco más en qué consiste esto.

Como hemos explicado anteriormente en el experimento de la doble rendija, como consecuencia de la interacción con la luz que da lugar al proceso de decoherencia, la propiedad de la partícula de haber pasado por la rendija de arriba o la de abajo pasa a estar bien definida, mientras que, si no hay esa interacción, esa propiedad está indefinida porque hay interferencia entre pasar por arriba y pasar por abajo. Ya hemos dicho que este es el motivo por el que a esa propiedad, en mecánica cuántica, se la denomina "observable". Cuando se puede observar, porque ha interaccionado con algo aproximadamente clásico ("aparato de medida") sí toma valores bien definidos. Pero, cuando no se puede observar, entonces podría no estar bien definida. Y hay más: el observable "por qué rendija pasa" (observable $\sigma_z$) nunca va a tomar un valor bien definido al mismo tiempo que el observable $\sigma_x$ "hay interferencia de un tipo o su negativo" por motivos evidentes. Se trata de observables excluyentes. Si, en un estado cuántico concreto, $\sigma_z$ está bien definido, $\sigma_x$ no lo está. Como, por el principio de superposición, estos estados son vectores, no puede haber una base común de estados donde $\sigma_z$ y $\sigma_x$ estén bien definidos.

Para describir esto matemáticamente, lo más cómodo es asignar a $\sigma_z$ un operador hermítico, uno cualquiera que sea diagonal en la base de estados en la que $\sigma_z$ está bien definido. Y lo mismo con $\sigma_x$.

$ \hat{\sigma}_z=  +| \sigma_z=+1\rangle  \langle \sigma_z=+1|- | \sigma_z=-1\rangle  \langle \sigma_z=-1|  $

$ \hat{\sigma}_x=  +| \sigma_x=+1\rangle  \langle \sigma_x=+1|- | \sigma_x=-1\rangle  \langle \sigma_x=-1|  $

Y, entonces, nos encontramos que, al ser bases distintas, los operadores $\sigma_x$ y $\sigma_z$ no conmutan. Si hacemos el producto de $\sigma_z$ por $\sigma_x$, no sale lo mismo que $\sigma_x$ por $\sigma_z$:

Por supuesto, el entrelazamiento con la luz que hace que $\sigma_z$ pase a estar bien definido (lo que llamamos "medición") no tiene por qué ser máximo. Los estados de la luz viniendo de la rendija de arriba o de abajo no son exactamente perpendiculares. Esto lo que quiere decir es que nos puede quedar un estado que no es ni un estado en el que $\sigma_z$ está bien definido, ni un estado en el que $\sigma_x$ está bien definido. En este estado se van a observar (al captar Bob la luz) unos valores para $\sigma_z$, y, al ver Alice la pantalla, unos valores para $\sigma_x$. Al no estar $\sigma_z$ bien definido, los valores medidos para $\sigma_z$, al hacer muchas veces el experimento, tendrán cierta desviación típica, y lo mismo para $\sigma_z$.

Esta desviación típica para un observable genérico A se puede expresar matemáticamente, en el estado cuántico $|\psi\rangle$, como el módulo de un vector $|\psi_A\rangle $

$ \Delta A = | |\psi_A\rangle | $
donde $|\psi_A\rangle$ es un vector que se obtiene, a partir de $|\psi\rangle$, realizando la operación
$ |\psi_A\rangle= (\hat{A}-\langle A\rangle \hat{I})|\psi\rangle $
Aquí $\hat{I}$ es el operador identidad, y
$ \langle A\rangle = \langle \psi | \hat{A} |\psi \rangle $
es el valor esperado de $\hat{A}$ en el estado $|\psi\rangle$. Es sencillo comprobar que, si realizamos muchas mediciones de $\hat{A}$, estando en todas ellas el sistema previamente en el estado $|\psi\rangle$, entonces $\Delta A$ coincide con la desviación típica de los resultados
$ \Delta A= \sqrt{\langle A^2\rangle-\langle A\rangle^2} $

La característica principal que tiene la mecánica cuántica, que la hace completamente diferente a la física anterior, es que los operadores que se utilizan para describir los observables físicos en general no conmutan. Si llamamos $\hat{B}$ a uno de los operadores que no conmuta con $\hat{A}$
$[\hat{A},\hat{B}]\neq 0 $
entonces se puede ver que la desigualdad de Schwarz, aplicada a los estados $| \psi_A\rangle$ y $| \psi_B\rangle$,
$ \langle \psi_A | \psi_A \rangle \langle \psi_B | \psi_B \rangle \geq  | \langle \psi_A | \psi_B \rangle |^2 \geq (\operatorname{Im} \langle \psi_A | \psi_B \rangle )^2 $
conduce a la relación de indeterminación
$ \Delta A \Delta B \geq \frac{1}{2} |\langle  \psi | [\hat{A},\hat{B}]   |\psi  \rangle $
El significado físico de esta relación es que, si el conmutador es no nulo, es imposible encontrar algún estado cuántico en el que ambos observables estén bien determinados y, cuanto más determinado esté el observable $\hat{A}$ en un estado cuántico, más indeterminado estará $\hat{B}$ en ese estado, ya que el producto de las indeterminaciones no puede ser inferior a $\frac{1}{2} |\langle  \psi | [\hat{A},\hat{B}]   |\psi  \rangle|$. Estas son las denominadas relaciones de incertidumbre. Como A y B no pueden tomar valores bien definidos al mismo tiempo, es imposible medir ambos con incertidumbres que violen estas relaciones.

Si ahora hacemos otro experimento en el que juntamos ambas rendijas para hacer una rendija más grande, de un tamaño similar a la longitud de onda asociada a la partícula, también se pueden obtener patrones de difracción, solo que ahora A no es más que la posición vertical de la partícula, y B su momento vertical, ya que el sitio donde la partícula impacta en la pantalla nos dice con qué velocidad se movía en la dirección vertical.


Es decir, ahora $\hat{A}=\hat{q}$ y $\hat{B}=\hat{p}$. Como son observables incompatibles entre sí, sus correspondientes operadores no conmutan. Metiendo el conmutador 
$ [\hat{q}, \hat{p}] = i\hbar \hat{I} $
en la expresión anterior lo que se obtiene es la relación de incertidumbre:
$ \Delta x \Delta p \geq \frac{\hbar}{2} $
que tiene forma de gato:

Nótese que estas relaciones no son el principio de indeterminación, aunque están íntimamente ligadas a éste. El principio de indeterminación es, como su propio nombre indica, un principio y, por ejemplo, en el Landau-Lifshitz se describe precisamente en el epígrafe 1. A partir de este principio, y de los demás, se construye la mecánica cuántica. Sin embargo, las relaciones de indeterminación son teoremas dentro de la teoría, y Landau-Lifshitz no las demuestran hasta el epígrafe 16. Al ser teoremas, tienen un significado muy preciso y no se pueden "reinterpretar", como intentó hacer Popper. Vamos a verlo:


La malinterpretación estadística de las relaciones de incertidumbre

Esta malinterpretación que, creo tiene su origen en Popper, surge de confundir las relaciones de incertidumbre con el principio de indeterminación, sembrando todavía más confusión sobre la mecánica cuántica y extendiendo así el mito de un Copenhague débil. 

Popper, ya bien mayorcito, y muchas décadas después del nacimiento de la cuántica, seguía pensando clásicamente. Seguía creyendo que magnitudes como la posición y el momento son características propias y simultáneas de las partículas. Pero, en vez de esforzarse en estudiar bien la mecánica cuántica, lo que hizo Popper fue imprimir en la opinión pública la idea de que Börh, Heisenberg y Born habían hecho una interpretación subjetivista de la mecánica cuántica.

Por supuesto, ahí estaba él para salvar a la humanidad de este "gran error", así que propuso una "interpretación" psi-epistémica en la que las partículas en realidad sí tienen una posición y velocidad bien definida, pero desconocida. Negó directamente lo que se descubrió en la década de los años 20 en el siglo pasado: que la posición, el momento, etc, son observables, es decir, no son propiedades exclusivas de la partícula, sino propiedades del conjunto partícula+aparato. Para Popper, el hecho de que la partícula haya atravesado la rendija grande nos da un valor de la posición vertical con una incertidumbre igual al tamaño de la rendija, pero, al golpear la partícula la pantalla, su momento en la dirección vertical queda casi perfectamente determinado porque así sabemos cuánto ha viajado la partícula hacia arriba. Podemos obtener así un valor conjunto de la posición y el momento que viola las relaciones de incertidumbre. Esto lo explica en su obra "El conocimiento objetivo: Un enfoque evolucionista". Pero Popper cometió el error de principiante que suelen tener los estudiantes cuando acaban de empezar a estudiar mecánica cuántica: ignorar que posición y momento son observables incompatibles y que, al medir el momento con mucha precisión, la medida anterior de la posición ya no sirve.

Seguramente a Popper le habría venido bien leer esta explicación con un ejemplo más sencillo: el espín del electrón. Ya hemos visto que el espín $S_z$ del electrón no es una propiedad del electrón, sino del conjunto electrón+aparato orientado en dirección z. Si mido $S_z=+1/2$ y luego giro el aparato hasta el eje x, es natural que la propiedad $S_x$ no esté bien definida hasta que no se mida. Y, una vez he medido $S_x$, entonces la propiedad que pasa a estar indeterminada es $S_z$, ya que puse el aparato en la dirección x, pero $S_z$ es una propiedad del conjunto electrón+aparato en dirección z, conjunto que ya no existe... hasta que vuelva a medir $S_z$.  Al igual que la posición y el momento, $S_x$ y $S_z$ son observables incompatibles. No pueden tomar valores bien definidos simultáneamente. Matemáticamente, en la teoría, están representados por operadores que no conmutan. Al medir uno de ellos con mucha precisión, el otro queda completamente indeterminado. No es que, al medir uno, desconozco el otro. Es que el otro no tiene un valor definido en la naturaleza.

Por eso, si mido la posición dentro de una incertidumbre, la indeterminación en el momento es, como mínimo, ħ/(2Δx). No puedo medirla con menos incertidumbre experimental porque no está determinada en la naturaleza si nos vamos dentro de ese intervalo. Es decir, si mido $S_x$, y luego mido $S_z$, el valor que medí de $S_x$ ya no se sigue cumpliendo, cosa que se comprueba rutinariamente en los experimentos al medir de nuevo $S_x$ y ver que la mitad de las veces sale otro valor. Análogamente, si mido la posición, y luego mido el momento, el valor que medí de la posición ya no se sigue cumpliendo. No puedo decir, como hace Popper, que ese valor de la posición que medí sigue valiendo. Es física básica que Popper no entendía, pero hay gente que lo tiene idolatrado.

Hay que saber distinguir en todos los autores el grano de la paja, quedarte con los trabajos de Newton sobre dinámica, cálculo y óptica e ignorar los de alquimia. O quedarte con las leyes de Kepler e ignorar que "Dios le estaba mandado un mensaje a través de los astros". Hay autores como Popper, Bunge, Feyerabend, etc, de los que se pueden sacar muchas cosas interesantes, pero que no entendieron la mecánica cuántica.

En el caso de Feyerabend, ya hemos dicho que fue uno de los que promocionó al hombre de paja bajo el nombre de "intepretación de Copenhague" para intentar ayudar a su amigo Bohm. Pero luego, después, se arrepintió, y acabó aceptando que la teoría que habían construido Bohr, Heisenberg y Born no tenía ningún problema y era perfectamente válida, asunto que jugó un papel importante en el desarrollo de su filosofía del "todo vale". Pero, aún con esta rectificación, no está claro que hubiera terminado de entender la mecánica cuántica. En "Contra el método" llega a afirmar que en la mecánica cuántica, "tal y como es puesta en práctica actual y realmente por los físicos", se viola la lógica de enunciados y se usa una lógica diferente sin el principio del tercero excluido, cosa que es completamente falsa. No es posible ahora mismo hacer física, ni ninguna otra ciencia experimental, violando la lógica de enunciados. Feyerabend pensaba que en mecánica cuántica los físicos en realidad estamos usando la "lógica cuántica", que se habían inventado Birkhoff y von Neumann. Pero no es así. Usamos la lógica de enunciados, como todo el mundo. Aunque la lógica cuántica es un conjunto matemáticamente consistente de axiomas y de definiciones inspirado en la mecánica cuántica, los físicos ni la usamos ni la necesitamos, y esta lógica ampliada no ha aportado hasta ahora nada a la física. Al igual que ocurre con los que concluyen erróneamente que la cuántica es "no local" (asunto que trato a continuación), la conclusión errónea de que "la cuántica viola la lógica de enunciados" también surge de suponer erróneamente que los observables tienen siempre valores bien definidos, como explico en este otro artículo.

En el caso de Bunge, cuando intentó estudiar la mecánica cuántica entendió otra cosa. Se dio cuenta de que lo que entendió tiene que estar mal y, en vez de considerar la posibilidad de que lo había entendido mal, arremetió contra Copenhague. O, mejor dicho, arremetió contra lo que él creía que era Copenhague. No se dio cuenta de que, en Copenhague, el sitio donde pongas el corte de Heisenberg (la frontera entre el sistema cuántico y el aparato aproximadamente clásico) no tiene significado físico, siempre que lo hagas después de decoherencia. Es más profesional ponerlo lo antes posible, como hacían los fundadores de la cuántica y aplican Landau y Lifshitz en su libro, pero es perfectamente equivalente ponerlo donde quieras. Cuando Bunge vio que gente como von Neumann y Wigner lo ponían en la consciencia, dedujo de ahí que eso no podía ser, que era una barbaridad epistemológica, y por eso arremetió contra Copenhague, sin darse cuenta de que estaba arremetiendo contra afirmaciones sin significado físico, contra meras herramientas de cálculo. Bunge compró el hombre de paja y luego lo destrozó, pero lo que hizo ni aporta a la física ni tiene nada que ver con ésta.


La hipótesis de las variables ocultas locales

Otro mito que se ha creado es que Einstein, Podolsky y Rosen (EPR), con el artículo que publicaron en 1935, introdujeron la idea de entrelazamiento cuántico y "pusieron contras las cuerdas a la teoría cuántica". Esta idea ha calado tanto que hoy en día se utiliza el término "EPR" como sinónimo de entrelazamiento. Sin embargo, como hemos explicado anteriormente, el experimento mental del telescopio de Heisenberg ya contiene un entrelazamiento. No puede haber interacción física ni medición sin entrelazamiento. En el momento que tenemos a dos partículas cuánticas interaccionando, ya surge de forma genérica un entrelazamiento. Al contrario de lo que muchos se piensan, los estados especiales y singulares en cuántica no son los entrelazados, sino los no entrelazados. El entrelazamiento es un característica propia de la mecánica cuántica que no posee la clásica, pero, en mecánica cuántica, es justamente el entrelazamiento con el ambiente el que (junto con la pérdida de acceso a los grados de libertad del ambiente) el que hace que emerja la mecánica clásica como caso límite de la cuántica. Como he explicado anteriormente, es el que hace que haya cosas clásicas en buena aproximación en la naturaleza.

El problema es que Einstein, Podolsky y Rosen, al contrario que Bohr y Heisenberg, entendieron mal cuáles son los "elementos de realidad" en mecánica cuántica, y dieron un argumento que es una falacia. Según este argumento, como Bob puede elegir si medir el observable $\sigma_z$ o  $\sigma_x$ para su fotón, entonces puede afectar a la partícula de Alice superlumínicamente, haciendo que pase a tener un elemento de realidad (pasar a tener bien definido  $\sigma_z$) u otro (pasar a tener bien definido  $\sigma_x$), a no ser que la mecánica cuántica sea una teoría incompleta y tenga variables ocultas que ya habían determinado previamente el valor de los resultados de las mediciones.

Pero esto no es ninguna paradoja, ya que se trata de una falsa dicotomía. Lo que ocurre en mecánica cuántica no es ni lo uno ni lo otro. No tenemos que elegir entre que la cuántica sea una teoría incompleta o que haya interacciones superlumínicas (más rápidas que la luz en el vacío). El estado cuántico de la partícula de Alice puede ser perfectamente diferente para Alice que para Bob, y los observables de la partícula no son propiedades intrínsecas de ella, sino del conjunto partícula+dispositivo experimental para medirlo. Si Bob decide medir  $\sigma_x$ y Alice decide medir $\sigma_z$, no podemos decir que se hayan medido simultáneamente dos observables incompatibles.

Como es evidente, la comunidad científica que estaba realizando las investigaciones más punteras en mecánica cuántica no dio importancia al artículo de EPR. Bob puede asociar, si quiere, a la partícula de Alice el estado correspondiente al valor de $\sigma_x$ que ha medido. Si le da tiempo a la luz a llegar de Bob a Alice y si le dice a Alice lo que ha medido o no, eso es completamente irrelevante cuando Alice mida $\sigma_z$ (pegando la pantalla a las rendijas) y no afecta a las probabilidades de lo que ella va a obtener. Ella obtendrá un valor de un observable que es incompatible con $\sigma_x$. Es el mismo error de principiante que cometió Popper. Pero Popper lo cometió bastantes años después, cuando ya no estaba justificado que la gente no hubiera tenido tiempo de entender la mecánica cuántica. Después de todo, lo que estaban haciendo EPR era seguir con las objeciones que Einstein llevaba años poniendo a la mecánica cuántica y obligando a Bohr a explicarse mejor cuando la teoría era todavía joven.

Durante las décadas siguientes, sólo una minoría de físicos cuánticos, nucleares y de partículas, entre los que se encontraba John Bell, dieron importancia al trabajo de EPR, porque seguían convencidos de que la teoría cuántica seguramente no era una teoría completa, y que tenía que haber variables ocultas que determinaran previamente el valor de los resultados de las medidas. Es decir, tenía que haber propiedades ocultas intrínsecas al sistema cuántico que determinen todo y que sean independientes del contexto experimental en que toman las medidas (independientes de si decidimos medir $\sigma_x$ o $\sigma_z$). Con esta motivación, Bell encontró una serie de desigualdades que la mecánica cuántica (que es realista participativa) viola, y que toda hipotética teoría de variables ocultas que respete el principio de localidad (realismo intrínseco local) tiene que obedecer. Se trata de un experimento más en el que la mecánica cuántica ofrece una predicción distinta a la que ofrece la mecánica clásica, pero es un experimento con la potencialidad de convencer a los negacionistas de la mecánica cuántica de que tenemos que abandonar la forma clásica de pensar el mundo, entre otras cosas, porque fue diseñado por uno de ellos.

Hoy en día conocemos muchos teoremas como los de Bell, muchos experimentos en los que la cuántica predice un resultados y cualquier teoría hipotética de variables ocultas locales predice otro. Recomiendo al lector que se estudie el test GHZ. De todos ellos, es el más fácil de entender, porque no está basado en ninguna desigualdad. Estos "test de Bell" se han podido llevar a cabo en el laboratorio, ya incluso rutinariamente en los experimentos que se hacen ahora en el campo de la información cuántica, y TODOS DAN LA RAZÓN A LA MECÁNICA CUÁNTICA. No existen las variables ocultas locales.


La hipótesis de las variables ocultas no locales

La violación de las desigualdades de Bell sólo deja una posibilidad para salvar al realismo intrínseco. La única forma de salvar al realismo psi-óntico (y también al psi-epistémico) es introducir una no localidad ad hoc que nada tiene que ver con lo que se ha observado en los experimentos de los últimos cien años en física. Es una pena que Einstein no sea un elfo inmortal, porque la violación experimental de las desigualdades de Bell implica que la única forma de evitar el realismo participativo de la mecánica cuántica que Einstein no quería aceptar es mediante una no localidad que el mismo Einstein nunca estuvo dispuesto a asumir. Einstein ahora mismo aceptaría el realismo participativo de la mecánica cuántica. No tendría ninguna otra opción.

¿Puede ser el mundo intrínsecamente realista y, por tanto, no local? En realidad, creer que la mecánica cuántica es no local viene de malinterpretar lo que es la función de onda. Ésta es un objeto no local, se propaga superlumínicamente, incluso aunque intentes aplicar la mecánica cuántica a un modelo relativista. Pero eso no significa que la mecánica cuántica sea no local, porque el único significado de la función de onda es dar las amplitudes de probabilidad que un observador asigna a los sucesos. El que la teoría sea local o no de lo que depende es de los observables, de si conmutan o no fuera del cono de luz. En teoría cuántica de campos, que no es más que la aplicación de la mecánica cuántica de Böhr, Heisenberg, Born y Pauli a los campos relativistas, la existencia de las antipartículas hace que los conmutadores de los observables se anulan fuera del cono de luz, aunque haya funciones de correlación que no lo hagan. Eso hace que sea imposible que ninguna interacción ni señal se propague más rápido que la luz. La teoría cuántica de campos locales y la física a nivel fundamental son hoy en día la misma cosa. No hay ningún indicio experimental, ni tampoco de consistencia teórica, que nos haga pensar que el entrelazamiento cuántico es un efecto no local. Esto prácticamente descarta la hipótesis de que haya variables ocultas no locales. No hay forma de hacerla encajar con los resultados experimentales de los últimos 100 años. Son demasiados resultados para forzar ese encaje con supuestos ad hoc. Las variables ocultas no locales, al ser incompatible con la relatividad especial, es también incompatible con las teorías cuántica de campos locales sobre las que se basa el exitoso modelo estándar de la física de partículas. Por ello, la existencia de variable ocultas no locales constituye una hipótesis sobre la que trabaja un número muy pequeño de físicos y, hasta ahora, nadie ha sido capaz de explicar la física de partículas bien establecida con ellas.

Como explico en este vídeo y he comentado anteriormente, en función del sistema de referencia inercial que utilicemos, es Bob el que mide antes que Alice o al revés. ¿Quién de los dos es el que envía la señal a velocidad superlumínica para determinar lo que tiene que le tiene que salir al medir al otro? No tiene ningún sentido. También explico que la poca física teórica que se ha hecho hasta ahora basada en la hipótesis del realismo intrínseco no local constituye un conjunto formado por cuatro ladrillos mal puestos comparados con la enorme catedral que es la física de los últimos 100 años, física que se basa en el principio de localidad de la relatividad especial. Como explico en este otro artículo utilizando la teoría de las inferencias bayesianas, las probabilidades de éxito de cualquier línea de investigación basada en el realismo intrínseco no local son bastante bajas. Pero, desgraciadamente, hay una minoría de físicos que, o bien no entienden la mecánica cuántica, o bien no comprenden en qué consiste el realismo participativo o lo malinterpretan. Y, como no lo entienden, entonces lo descartan automáticamente. Están condenados así a seguir una línea de investigación minoritaria que tiene todas las probabilidades de estar abocada el fracaso y que hasta ahora no ha construido nada.

Pero ese no es el problema. No es malo que haya unos pocos investigadores en física teórica siguiendo líneas de investigación completamente alocadas y muy poco prometedoras. El problema viene cuando estos investigadores llaman deliberadamente "no localidad" al entrelazamiento cuántico y, junto con algunos que se hacen llamar "divulgadores", realizan mala divulgación, dando charlas y escribiendo artículos o libros en los que dan a entender que la línea de investigación del realismo intrínseco no local es mayoritaria, o incluso que es la única que hay. Hay por ahí algún que otro discípulo de Bunge que hace eso continuamente. Un ejemplo menos escandaloso que tenemos en España es el de Arturo Quirantes, que confunde a los estudiantes diciendo en su libro de 2015 que la violación experimental de las desigualdades de Bell "nos dice que esa información se transmite de algún modo mediante una ‘acción fantasma’ a una velocidad prácticamente infinita, lo que viola tanto la relatividad como el principio de localidad”.

Además de llamar al entrelazamiento cuántico "no localidad", también se oye, a veces, explicar mal el efecto Aharonov-Bohm, diciendo que es una interacción no local en la que el campo magnético afecta instantáneamente a distancia a las partículas cuánticas. Sin embargo, el efecto Aharonov-Bohm no implica tampoco ninguna no localidad, ya que en mecánica cuántica, al contrario que en mecánica clásica, los observables asociados al campo electromagnético son los lazos de Wilson, y son éstos los que de forma local modifican la fase de la amplitud asociada a ese camino en la integral de camino de Feynman. Todo este ruido de llamar "no localidad" al entrelazamiento y al efecto Aharonov-Bohm para lo único que sirve es para ponerle la zancadilla a los pobres estudiantes que están haciendo un esfuerzo muy grande por aprender y se encuentran con contenidos que lo emborronan todo.


El disparate del superdeterminismo

El superdeterminismo es una hipótesis ad hoc hecha a la desesperada para, a pesar de la violación experimental de las desigualdades de Bell, salvar tanto a la hipótesis del realismo intrínseco como a la de la localidad. Consiste en asumir que hay una conspiración en la naturaleza que impide a Alice y a Bob elegir aquellas orientaciones de sus aparatos de medida que demostrarían que la mecánica cuántica es incorrecta.

Como ocurre con todas las hipótesis ad hoc, esta propuesta es tan enrevesada que, aunque sobreviva a todos los test experimentales, el grado de confianza que tendremos en ella seguirá siendo ridículamente bajo. El lector interesado en saber por qué una hipótesis ad hoc de este tipo nunca va a crecer al realizar una inferencia bayesiana puede consultar este artículo. De hecho, el superdeterminismo siempre va a sobrevivir porque es una hipótesis que no puede ser falsada, ni siquiera en principio. No es una hipótesis que pueda someterse a la indagación científica. Es puro dogma. Y es, además, un dogma que no tiene ningún sentido ni siquiera desde el punto de vista filosófico, porque no es una explicación racional:
  • En un artículo anterior hemos visto que es el carácter activo de la ciencia lo que le otorga rigurosidad. Este carácter activo consiste en que tenemos la libertad de diseñar los experimentos y manipular la naturaleza de muchas maneras diferentes. Si fuéramos observadores pasivos nuestros sentidos nos podrían engañar, pero al hecho de tener un papel activo en los experimentos hace mucho más difícil que se nos pueda engañar. Si el superdeterminismo fuera cierto, no tendría sentido hacer ciencia.
  • Pero es que tampoco tendría sentido hacer matemáticas. Incluso la aritmética misma podría ser inconsistente y no nos hemos dado cuenta todavía porque habría un mecanismo oculto en la naturaleza que nos impide demostrar aquellos teoremas en los que se llega a una inconsistencia. Hoy en día estamos muy convencidos de que la aritmética es cierta porque, aunque no podemos probarlo más que dentro de teorías más amplias que son más sospechosas todavía de ser inconsistentes, tenemos siglos de historia en los que miles de matemáticos han ido produciendo teoremas altamente no triviales en los que no se vislumbra ninguna inconsistencia.
  • Tampoco tendría sentido hacer filosofía. ¿Para qué buscar los métodos con los que abordar los problemas más profundos si estamos predeterminados a movernos sólo sobre un rango muy estrecho de posibilidades mentales?
Lo único que podríamos hacer desde el punto de vista práctico sería estudiar las teorías "falsas" que la naturaleza nos está haciendo creer que son verdaderas, y eso es precisamente lo que estamos haciendo. Y, en ese caso, ¿qué sentido tiene llamarlas falsas? ¿No será que estamos sufriendo un engaño ontológico y estamos poniendo en el mundo cosas, como en este caso el superdeterminismo, que realmente no existen?

El único motivo por el que estoy dedicando tantas líneas a esta idea tan disparatada es porque el premio Nobel de Física Gerard 't Hooft ha hecho en las últimas décadas un intento de formular una teoría determinista de los fenómenos cuánticos que se parece mucho al superdeterminismo. Pero esta teoría está basada en una distinción que no existe en la naturaleza entre estados "ónticos" y estados que no lo son. Los estados "ónticos" formarían una base privilegiada y evolucionarían sólo entre ellos, de tal forma que, a partir de ellos, sería imposible que se llegue a un estado superposición, que 't Hooft considera artificial. Ni Alice ni Bob tienen la libertad de de modificar el estado de su partícula para convertir un estado óntico en una superposición porque las leyes de la física no pueden hacer eso al estar hechas, de acuerdo con su propuesta, por operadores evolución que son sólo permutaciones entre estados ónticos. De esta forma, 't Hooft asume que Alice y Bob no pueden probar que la mecánica cuántica no se cumple en la naturaleza, pero sin recurrir a ninguna conspiración.

El problema de la propuesta de 't Hooft es que no funciona, porque supone abandonar el principio de superposición de la mecánica cuántica, principio más que comprobado. Ya hemos visto que no hay ninguna base de estados privilegiados en mecánica cuántica. Estados del espín de una partícula o del conjunto de varias partículas que 't Hooft considera "ónticos" se convertirían en estados superposición en cuanto giremos un poco nuestro aparato de medida, lo que sería absurdo.  A 't Hooft se le ha ido bastante la pinza. Lo que es artificial no son los estados superposición, sino tratar de separar los estados cuánticos en ónticos y superposiciones. En la naturaleza no existe esa separación.

Malinterpretando los caminos en la integral de camino de Feynman

Voy a dar un último argumento de por qué las alternativas intrínsecamente realistas psi-epistémicas viven de espaldas al desarrollo de la física de partículas de los últimos 100 años. En la integral de camino de Feynman sumamos para todos los caminos. Pero, en cada uno, la posición y el momento toman siempre valores bien definidos. En las alternativas realistas cada uno de estos caminos tiene, por tanto, que tener existencia física de alguna manera. Pero no es posible hacer esto en este universo. El motivo nos lo da la tabla periódica. Voy a explicarlo.

¿Por qué tiene la tabla periódica justo esa forma? En Secundaria nos explicaron que esto es así porque, en el estado fundamental de los átomos, no podemos colocar a todos los electrones en el nivel más bajo. Hay que ir llenando los niveles según esta regla mnemotécnica:

No podemos colocar todos los electrones en el nivel más bajo (1s) porque, por el principio de exclusión de Pauli, en los orbitales s sólo caben 2 electrones. Si ponemos más, habría al menos dos electrones con todos los números cuánticos iguales, pero eso no puede ser.

A las partículas a las que les pasa eso (no puede haber 2 en el mismo estado cuántico) se las denomina fermiones. Pero también hay partículas que no obedecen al principio de exclusión de Pauli. Son los bosones. En un mismo estado cuántico puede haber todas las que quieras.

En teoría cuántica de campos los bosones son excitaciones de campos que oscilan cuánticamente. Hay un oscilador armónico para cada posible valor del momento y, si este oscilador está en el estado |n⟩, decimos que hay n partículas con ese momento.

Por supuesto, esto es la mecánica cuántica de Copenhague aplicada a los campos. El campo bosónico puede estar en un estado que es superposición de estados con distinto número de partículas. ¡El número de partículas también es un observable y, como tal, no tiene por qué estar siempre bien definido!

$ | \psi \rangle = \sum_{n=0}^\infty \psi_n |n\rangle $

donde $\psi_n$ es la amplitud de probabilidad de que haya n partículas. Como el estado $| n\rangle$ se puede obtener a partir del estado $|0\rangle$ aplicando n veces el operador creación, entonces

$ | \psi \rangle = \sum_{n=0}^\infty \frac{\psi_n}{n!} (a^\dagger)^n|0\rangle $

Rescalando el operador posición q (que aquí no es la posición de ninguna partícula, sino el valor de un campo) y su momento asociado p, el operador creación se puede escribir de la forma:

$a^\dagger=\frac{1}{\sqrt{2}} (q-ip)$

Una cosa que no se suele explicar en el primer curso de mecánica cuántica en la universidad es que, de la misma manera que hay autoestados |q⟩ del operador posición, también hay autoestados |α⟩ del operador destrucción. Son los denominados “estados coherentes”.

$\hat{a} |\alpha\rangle=\alpha^*  |\alpha\rangle $

donde

$\alpha=\frac{1}{\sqrt{2}} (q-ip)$

De la misma manera que en la representación de coordenadas el operador posición actúa simplemente multiplicando por q, en la representación de estados coherentes (llamada representación de Bargmann-Fock) el operador creación actúa multiplicando por el número complejo α (con cierta normalización)

$\langle q | \hat{q}| \psi\rangle=q\langle q | \psi\rangle=q\psi(q)$

$\langle \alpha | \hat{a}^\dagger| \psi\rangle=\alpha\langle \alpha | \psi\rangle=\alpha\psi_{BF}(\alpha)$

Por tanto, la función de onda en esta representación se puede escribir como una serie de potencias en el número complejo α. ¡Es una función holomorfa!

$ \psi_{BF}(\alpha) = \sum_{n=0}^\infty \frac{\psi_n}{n!} \alpha^n $

¿Qué pasa si intentamos hacer esto con los fermiones? Los campos fermiónicos también oscilan, pero en ellos la función de onda en la representación equivalente a la de Bargmann-Fock, que se llama representación espinorial, sólo puede tener dos sumandos: el correspondiente a “hay 0 fermiones” y el de “hay 1 fermión”

$\psi_{BF}(\alpha)=\psi_0+\psi_1 \alpha$

¿Cómo podemos hacer que todas las potencias de dos (y mayores) de α se anulen? Sólo tenemos una posibilidad. Los números α no pueden ser números complejos normales y corrientes. ¡Tienen que ser números complejos que anticonmutan! Son números de Grassmann.

$\alpha_1\alpha_2=-\alpha_2\alpha_1$

En efecto, cuando multiplico un número de Grassmann por sí mismo y cambio el orden de los factores, por un lado me tiene que salir lo mismo, pero, por otro, al ser Grassmann, tiene que salir lo mismo cambiado de signo. Sólo el cero es igual a su opuesto, con lo que

$\alpha \cdot \alpha =0$

Pero, ¿qué era α? Este número no es más que una coordenada compleja en el espacio de fases. Si es Grassmann, entonces las coordenadas y los momentos también son Grassmann. Son como números reales ¡pero que anticonmutan! Evidentemente, las magnitudes físicas que son números de Grassmann no pueden tomar valores bien definidos que se puedan medir. ¡Por eso es imposible asignar un significado físico a cada camino en las integrales de camino de los fermiones! No hay trayectorias clásicas. ¿Significa esto que no podemos hacer física? No. Lo que significa es que no podemos hacer física clásica y, por eso, los matemáticos a la mecánica clásica con coordenadas fermiónicas la llaman “pseudomecánica clásica”. Las variables de Grassmann no pueden tomar valores concretos, pero sí se puede hacer integrales con ellas. Las integrales con estas variables sí están bien definidas y dan como resultados números complejos normales y corrientes.

$\int (c_0+c_1\alpha) d\alpha=c_1$

Así que las integrales de camino de Feynman para los fermiones sí dan números complejos con valores concretos y con significado físico. Son las amplitudes de probabilidad de que los fermiones hagan tal o cual cosa. ¡Sí podemos hacer mecánica cuántica con fermiones! Pero esta mecánica cuántica tiene que ser realista participativa. No puede ser psi-epistémica. La existencia de los fermiones hace que no podamos interpretar el mundo de forma intríNsecamente realista, con la posición en espacio de fases tomando valores concretos pero ocultos. Por eso, cuando alguien afirme tener una interpretación intrínsecamente realista de la cuántica, siempre podemos preguntar: ¿dónde están los fermiones?

Y, ¿qué pasa con los bosones? ¿Podríamos “reinterpretar” la cuántica asignando significado físico a los caminos en la integral de Feynman? Pues bien, resulta que los caminos que contribuyen típicamente a la integral de Feynman no son así

sino así

Pero eso da para otro post que podéis leer en este enlace.


Conclusiones

Una inspección a los principios fundamentales de la mecánica cuántica nos lleva a ver que la función de onda en mecánica cuántica, tal y como se define en la teoría, no es ni óntica ni epistémica. Su dominio no es ningún espacio físico, sino el espacio de todos los posibles resultados que puede obtener un observador. Y los valores que toma son sólo las amplitudes de probabilidad de que ocurra ese resultado. Además, el estado cuántico que define la función de onda no es una propiedad intrínseca del sistema cuántico, sino que es relativo al aparato, observador o agente utilizado (realismo participativo). Por ello, en mecánica cuántica no existe el colapso como proceso físico y no es necesario introducirlo como postulado. El "problema de la medida" no existe. No hay en mecánica cuántica ningún problema con la medida que no lo hubiera ya en mecánica clásica. Por ello, no parece haber ninguna necesidad, desde el punto de vista de la investigación científica en la frontera del conocimiento, de buscar si existe alguna interpretación alternativa a la mecánica cuántica.

Muy al contrario, lo que se aprecia es que, en cuanto intentamos ignorar alguno de los principios de la mecánica cuántica como, por ejemplo, la regla de Born o el principio de indeterminación, entonces sí que empiezan a aparecer problemas con la medida y con todo lo demás porque no hay forma de que las cosas encajen. Los principios explicados en este post en la sección "El espíritu de Copenhague y los principio de la mecánica cuántica" no son como la piña, el pepperoni o el atún en una pizza. No son opcionales. Son la masa. Son los pilares de la mecánica cuántica. Sin ellos, el edificio entero se derrumba como teoría física porque el formalismo matemático no se podría conectar con el mundo real. 100 años de trabajos con la teoría física de más éxito experimental en la historia de la humanidad nos dicen que todos los intentos que se han hecho de conectar este formalismo matemático con la naturaleza evitando el concepto de probabilidad y/o negando el principio de indeterminación dan lugar a teorías físicas incorrectas.

La historia de que hay una interpretación de la cuántica, la de Copenhague, que necesita el colapso y tiene el problema de la medida es un mito que sólo introduce un ruido perjudicial a la investigación científica. Trasladar todo este ruido sobre los fundamentos de la mecánica cuántica a la enseñanza de la física parece que también es contraproducente. La física no se aprende en una tarde. Entender los conceptos y los fenómenos físicos requiere de mucho trabajo con muchos experimentos mentales, hasta que, tras resolver muchos conflictos cognitivos y darte cuenta de que algunas ideas previas tuyas eran erróneas, el humo se disipa. En el caso de la mecánica cuántica es todavía más difícil porque cualquier cosa que digamos los profesores, sacada fuera de contexto, es fácilmente malinterpretable y, por ello, hay que estar continuamente matizando y explicando todas las afirmaciones.  Considero que sembrar dudas sobre la validez de los principios de la mecánica cuántica dando a entender que los fundadores de la mecánica cuántica "se hicieron un lío" cuando matizaban sus explicaciones, lo que hace es que los jóvenes científicos tarden demasiados años en aprender mecánica cuántica. Y aquí no estoy siendo objetivo porque considero que una de las víctimas soy yo mismo. Me siento estafado por parte de muchos de los autores a los que he leído desde que empecé a estudiar mecánica cuántica. Me han hecho perder mucho el tiempo y confundirme más de una vez. A la vista está que no he sido el único.

Los conflictos cognitivos, aparentes contradicciones que dejan a los estudiantes en un estado de insatisfacción que los motiva a aprender para resolverlas, son muy útiles en la enseñanza. Como se puede ver en los vídeos de mi curso de introducción a la cuántica, yo trato de enseñar así. Pero, lo que no se puede hacer, es presentar a los estudiantes (y al gran público a través de la divulgación) estas "contradicciones" como si fueran problemas que tiene realmente la comunidad científica. Al hacerlo llamas más la atención, haces "clickbait", vas a ser un divulgador más famoso y vas a ganar algo de dinero vendiendo libros, pero esa no es la mejor forma de ayudar a la difusión del conocimiento científico. A la vista está, por la confusión reinante entre los no físicos, que la prioridad debería ser enseñar la mecánica cuántica de la manera más natural posible, profundizando en el significado de sus principios, en vez de ridiculizarlos o envolverlos en un "halo de misterio".

La mecánica cuántica, que es una teoría realista participativa, es la teoría que, aplicada a los campos relativistas, más éxito abrumador experimental ha tenido en toda la historia de la humanidad. En cambio, las alternativas intrínsecamente realistas (psi-ónticas o psi-epistémicas) ni siquiera se pueden aplicar a los campos relativistas. Todas las hipótesis psi-ónticas están totalmente descartadas, y las psi-epistémicas, debido a la violación de las desigualdades de Bell, prácticamente también lo están. Por supuesto, siempre va a haber personas que, ante la abrumadora presencia de fósiles en el planeta Tierra, nieguen que exista le evolución de las especies y nos digan que no está descartado la hipótesis de la no localidad, que es posible que esos fósiles sean de organismos extraterrestres que visitaron la Tierra en naves espaciales. Incluso también habrá quien diga que Dios nos ha puesto los fósiles para despistarnos, lo que sería equivalente al superdeterminismo. Pero toda esa gente está ahora mismo fuera de la ciencia.

Por ello, para acabar con la confusión reinante entre los no físicos acerca del significado de los conceptos de la mecánica cuántica, estaría bien que nos planteemos dejar de llamar "interpretación" a hipótesis alternativas pobremente elaboradas que son diferentes a la mecánica cuántica y que viven de espaldas a los experimentos que se han hecho durante los últimos 100 años, como la mecánica de Bohm, el colapso objetivo o las variables ocultas no locales. Sería conveniente dejar también de llamar "interpretación" a disparates sin sentido como los "muchos mundos" o el superdeterminismo. Todas ellas han surgido como consecuencia de malinterpretar lo que dice la mecánica cuántica. Si no queremos meternos demasiado en polémicas desagradables podemos decir, como afirma Francis Villatoro, que "Muchas interpretaciones de la mecánica cuántica relucen, pero contienen muy poquito oro". Pero lo expuesto en este texto nos invita a ir más allá. Cuando abrimos la caja para ver en qué estado se encuentran esas "interpretaciones" alternativas de la mecánica cuántica da la sensación de que lo que ocurre no es ni siquiera que nosotros colapsemos la función de onda al estado "incorrecta". Lo que ocurre es que descubrimos que estas "interpretaciones", al igual que el gato, llevan ya podridas mucho tiempo.

Y, ¿qué pasa con aquellos, como Everett (con las correcciones de Wheeler), Rovelli o los defensores del bayesianismo cuántico, que, queriendo hacer una interpretación distinta a la de Copenhague, lo hacen relativamente bien, y acaban redescubriendo Copenhague? Pues que no deberíamos dejarles que se apropien injustamente de un mérito que no es de ellos. Con esos trabajos no han aportado nada nuevo a la ciencia. La única utilidad que veo en esos textos es proporcionar ideas para enseñar mecánica cuántica, la misma mecánica cuántica de Bohr, Heisenberg, Born, Pauli, etc, pero desde una perspectiva más moderna. Esto no es ninguna deshonra. Deberíamos valorar más aquellos trabajos que ayudan a enseñar mejor la física. Pero quizás no sería adecuado llamar a eso "investigación en física fundamental". La mecánica cuántica es una teoría bien establecida desde hace ya casi 100 años. Ahora, en el contexto en el que hay que discutir sobre el significado de sus conceptos es en el de la didáctica de la mecánica cuántica. 

Comparemos, por ejemplo, la actitud de Everett, Bohm o Popper con la que tuvo Grete Hermann frente a la cuántica. Hermann, brillante matemática y filósofa, tiene el honor de ser la primera persona en darse cuenta, a principios de 1935 o incluso antes, de que von Neumann cometió un error en su demostración de que ninguna teoría de variables ocultas podía reproducir los mismos resultados que la mecánica cuántica (o, por lo menos, que lo que él hizo en realidad no demuestra eso). Podía haberse venido arriba, y tratar de desarrollar ella misma su propia interpretación de la mecánica cuántica, como quisieron, y no pudieron, hacer Bohm, Everett, Bell y muchos otros. Pero, tras darse cuenta, trabajando con Heisenberg, Weizsäcker y el resto de su grupo, de que Copenhague no tenía ningún problema, acabó escribiendo un trabajo con un lenguaje de lo más humilde. En este trabajo Hermann, antes incluso de que se publicara el famoso paper de EPR, ya discutía un experimento mental de entrelazamiento, el "microscopio" que había sido inventado por el propio Heisenberg. Haciendo Hermann un análisis similar al de EPR (dependiendo de lo que le haga Bob a un fotón que se entrelazó con un electrón que tiene Alice puede Bob decir que la posición del electrón está bien definida o que lo está su momento), ¿concluyó, como EPR, que había descubierto que la cuántica, o bien es no local, o bien es incompleta? No. Concluyó que los estados cuánticos de los sistemas son relativos al contexto de observación, respuesta muy parecida a la que dio Bohr a EPR y a lo que, con las correcciones de Wheeler, acabó escribiendo Everett con sus "estados relativos". Es decir, concluyó que el espíritu de Copenhague había sido una buena guía para construir la mecánica cuántica:

"La yuxtaposición de estas diferentes posibilidades parece indicar que una puede acabar siendo forzada a asignar funciones de onda distintas para el mismo sistema en el mismo instante de tiempo dependiendo del contexto de observación que se use. La descripción mecanocuántica no es, como la clásica, una propiedad sólo del sistema físico, no es independiente de las observaciones a través de las cuales una adquiere conocimiento sobre él" [Hermann1935].

A lo mejor deberíamos empezar a considerar que el trabajo de EPR no es tan importante en la historia de la física, y que por eso no se le hizo mucho caso cuando apareció por parte de la comunidad científica. Análogamente, la violación experimental de las desigualdades de Bell, aunque muy importante para poner en práctica las aplicaciones de la teoría de la información cuántica, no parece que sea ningún gran hito en la historia de la humanidad, como algunos aseguran. Era un resultado que ya se esperaba. Es la confirmación de conjeturas audaces (como la explicación de Einstein del efecto fotoeléctrico) y la refutación de prudentes (creíamos que los electrones son corpúsculos que no sufren interferencias, pero no es así) lo que hace a la ciencia avanzar a grandes pasos, y no la refutación de la conjetura audaz de que hay variables ocultas locales. Lo más importante del trabajo de los investigadores a los que han otorgado el premio Nobel de Física de 2022 es que fueron los primeros en aprender cómo trabajar con sistemas cuánticos entrelazados en el campo de la información cuántica. Eso tiene aplicaciones impresionantes en tecnologías tan importantes como la computación y la criptografía, entre otros.

Grete Hermann llegó a entender muy bien la mecánica cuántica, mucho mejor que muchos de los físicos actuales. De hecho, su excelente trabajo es importante porque en él demuestra que la mecánica cuántica no viola los principios filosóficos fundamentales, como el de causalidad. Desgraciadamente, Hermann (al igual que su directora de tesis, Emmy Noether, que Einstein, y que muchos otros) perdió su puesto de trabajo y tuvo que abandonar su país por culpa de la intolerancia de los nazis, que la echaron por ser de izquierdas. Pero, al contrario que Einstein, que era la máxima celebridad, su trabajo acabó siendo casi olvidado, aunque no del todo porque Heisenberg y Weizsäcker lo conocían perfectamente y lo valoraban. Pero ya no estaba con ellos ni tuvo más la oportunidad de trabajar con ningún grupo de investigación puntero, y se dedicó el resto de su vida fundamentalmente a la educación, la filosofía y la política. Hay quien quiere vender el trabajo de Hermann como un soplo de aliento a elaborar teorías de variables ocultas alternativas a la mecánica cuántica. Pero, sin embargo, lo que Hermann concluye en este trabajo es que la mecánica cuántica no es tan rara ni tan inaceptable desde el punto de vista filosófico como le habían contado.

[Hermann1935] Último párrafo.

Esta última comparación de las diferencias entre Hermann y los "interpretadores" de la mecánica cuántica podría sugerir que, además del problema de que los investigadores, ahogados por la precariedad laboral, necesitan inflar artificialmente la importancia de su trabajo, también puede estar pasando que, a lo mejor, hay demasiados machitos alfa que creen que son héroes que están aportando algo nuevo a la física, o incluso que van a salvar a la humanidad de "la confusión en la que lleva metida casi 100 años" cuando, en realidad, el valor de lo que hacen, si es que lo hacen bien, es fundamentalmente pedagógico. Pero, claro, los tíos de verdad no se esfuerzan en enseñar, eso es "cosa de mujeres". ¿Cómo van a admitir estos "genios" que Bohr, Heisenberg, Born, Pauli ya hicieron bien el trabajo que ellos pretenden hacer, y que la principal utilidad de los nuevos escritos sobre los fundamentos de la mecánica cuántica es sobre todo dar ideas para formar mejor a las futuras generaciones?

Invito al lector a reflexionar sobre si el término "interpretación de Copenhague" ha sido en realidad desde el principio, y sigue siendo, una forma peyorativa de referirse a la mecánica cuántica por parte de aquellos que la niegan, no la entienden y se niegan a admitirlo, o directamente se creen que son capaces de aportar algo a la física fundamental bien establecida que se descubrió hace un siglo. No es cuestión de mandar a la gente a "callarse y calcular", pero puede que unos miligramos diarios de "síndrome del impostor" no vengan mal a más de uno.


Sobre el autor: Sergio Montañez Naz es doctor en física teórica y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.


Bibliografía

  • Ballentine, L. (1998) Quantum Mechanics: A Modern Development. World Scientific, NY. https://doi.org/10.1142/3142
  • Bohr, Niels (1935). “Can Quantum-mechanical Description of Physical Reality be Considered Complete?” Physical Review 48, 696-702.
  • Born M. (1954) The statistical interpretion of quantum mechanics. Nobel Lecture. https://www.nobelprize.org/uploads/2018/06/born-lecture.pdf
  • Brukner, C. “A no-go theorem for observer-independent facts,” Entropy 20: 350 (2018), doi: 10.3390/e20050350, arXiv:1804.00749 [quant-ph].
  • Cabello, Adan (2017). "Interpretations of quantum theory: A map of madness". In What is Quantum Information?, edited by Olimpia Lombardi, Sebastian Fortin, Federico Holik, Cristian López (Cambridge University Press, Cambridge, UK, 2017), p. 138
  • Coleman, S. Quantum mechanics in your face. Dirac Lecture. https://arxiv.org/abs/2011.12671
  • Dirac, Paul Adrien Maurice (1930). The Principles of Quantum Mechanics. Clarendon Press.
  • Einstein, A., B. Podolsky, and N. Rosen, (1935), “Can quantum-mechanical description of physical reality be considered complete?”, Physical Review, 47: 777–780
  • Everett, III, H (1956) "The Theory of the Universal Wave Function" PhD Thesis.
  • Freire, Olival Jr. (2005). "Science and exile: David Bohm, the hot times of the Cold War, and his struggle for a new interpretation of quantum mechanics". Historical Studies in the Physical and Biological Sciences. 36 (1): 31–35. doi:10.1525/hsps.2005.36.1.1.
  • Fuchs C.A. and Schack R. (2013), Quantum-Bayesian coherence. Rev. Mod. Phys. 85, 1693-1714 (2013).
  • García Alcaine G. y Álvarez Galindo G.(2001) "Adversus collapsum". Revista Española de Física. Vol. 15.
  • Griffiths, Robert B. (2002). Consistent Quantum Theory. Published by Cambridge University Press, 2002. Hardback (ISBN: 0521803497 | ISBN-13:9780521803496).
  • Heisenberg, W. (1949) [1930]. The physical principles of the quantum theory. Translators Eckart, Carl; Hoyt, F.C. Dover. pp. 1–39. doi:10.1007/BF01699141
  • Heisenberg W. (1958), Physics and Philosophy, Harper Perennial Modern Classics; First Edition (May 8, 2007)
  • Hermann G (1935) Die naturphilosophischen Grundlagen der Quantenmechanik. Abhandlugen der Fries’schen Schule 6(2):75–152. En Crull, Elise & Bacciagaluppi, Guido (eds.) (2016). Grete Hermann - Between Physics and Philosophy. Springer.
  • Howard, Don. (2004). Who Invented the "Copenhagen Interpretation"? A Study in Mythology. Philosophy of Science. 71. 669-682. 10.1086/425941.  Department of Philosophy and Program in History and Philosophy of Science University of Notre Dame
  • Kuhn, Thomas S. (2005). La estructura de las revoluciones científicas. Fondo de Cultura Económica de México. ISBN 978-84-375-0579-4.
  • Landau L.D., Lifshitz E.M., Berestetskii VB, Pitaevskii, Teoría cuántica (no relativista) Reverte, 10 ene 2021.
  • Motl, Lubos. Diversos posts en el difunto blog The Reference Frame.
  • Peres (2002), A. Quantum Theory: Concepts and Methods. Part of the book series: Fundamental Theories of Physics (FTPH, volume 57)
  • Rovelli, C. (1996), "Relational quantum mechanics", International Journal of Theoretical Physics, 35: 1637–1678.
  • Villatoro, F. (2022), "Premio Nobel de Física 2022: Aspect, Clauser y Zeilinger por ser pioneros del uso del entrelazamiento cuántico en información cuántica". La ciencia de la Mula Francis. Naukas
  • von Neumann, J. (1955) Mathematical Foundations of Quantum Mechanics. Princeton University Press, Princeton.
  • Zurek, W.H. Decoherence and the transition from quantum to classical -- REVISITED. Part of the Progress in Mathematical Physics book series (PMP,volume 48).

7 comentarios:

  1. Gracias por la entrada y por el blog en general.
    Si me lo permite, tengo una pregunta sobre la historia de la teoría. No sé si le he entendido bien. ¿Está afirmando que la decoherencia y el "mundo cuántico" ya eran elementos de la teoría desde su creación en Copenhague?. ¿O que es coherente con o está implicado en el principio de correspondencia?. Porque tanto Bohr como Heisenberg parecían referirse a la cuántica como una teoría sobre situaciones experimentales. "Los fenómenos cuánticos ocurren en el laboratorio". ¿La extrapolación de la cuántica como teoría sobre la Naturaleza (aunque su realidad sea relativa o participativa) no es posterior en su desarrollo histórico?.
    Gracias.

    ResponderEliminar
    Respuestas
    1. Como explico en el artículo, los fundadores de la mecánica cuántica necesitaron, para construir los observables en la teoría, suponer que los aparatos de medida son aproximandamente clásicos. Por supuesto, construyeron la mecánica cuántica como teoría fundamental y universal, pero necesitaban (y seguimos necesitando) aparatos aproximadamente clásicos.
      Los mecanismos concretos de decoherencia que hacen que sean clásicos no se conocían en aquella época. Desde los importantes trabajos de Zurek, sí sabemos mucho sobre estos mecanismos, y estos trabajos lo que han hecho ha sido confirmar que la intuición de Heisenberg y Bohr sobre este asunto era la correcta.

      Eliminar
  2. Estimado Sergio.
    Quería agradecerte y felicitarte por el artículo, buena lectura para comenzar este 2023 (para hacerlo tranquilamente) que creo será apasionante.
    Soy el coordinador de varios proyectos de divulgación (Commons), en concreto el de CIENCIA, y el "azar relativo" muy relacionado: https://cienciayelazarrelativo.blogspot.com/
    Me gustaría hacerte una "proposición" en tu calidad de docente, mi email es quintingarrido@gmail-com
    Gracias

    ResponderEliminar
  3. Me parece que eres demasiado injusto con la teoría de los mundos múltiples. El físico David Deutsch se basó en esa interpretación para crear uno de los primeros algoritmos cuánticos. Y algunos entendemos mejor la computación cuántica si la estudiamos desde la interpretación de los universos paralelos. Pero en su libro "La estructura de la realidad", este físico argumento con fuerza acerca de por qué la interpretación de Everett es la única que resuelve todo el problema del experimento de la doble rendija: el fotón interactúa con algo en su camino. Decir que interactúa con una función matemática nada más, o que interfiere con una posibilidad que pudo tomar, no son más que formas de eludir la cuestión. El fotón interfiere con algo y ese algo no puede ser otra cosa que un fotón, pero no es tangible. Todas las demás explicaciones o son instrumentalistas o prefieren calcular, así como tú lo haces: calculas, pero no razonas la realidad que está detrás del fenómeno, ni tratas de descubrir loq

    ResponderEliminar
    Respuestas
    1. Estás asumiendo que el fotón es una partícula clásica, con una trayectoria bien definida, que pasa por una rendija concreta y que, por tanto, interacciona con algo que pasa por la otra rendija. Pero el fotón no es una partícula con trayectoria bien definida que "interfiere" con nada. El fotón es una partícula cuántica que, por tanto, exhibe el fenómeno de las interferencias.

      Eliminar
  4. Tienes una concepción instrumentalista, cuando no positivista de la ciencia, por eso crees a ciegas en la Interpretación de Copenhague. Las fórmulas predicen tales resultados y es todo. No hay para qué buscar una explicación al por qué funcionan, no hay más. Así es como debieras plantear tu creencia, no queriendo demostrar que la Interpretación de Copenhague es la Verdad. Es un cálculo que sólo cree en sus fórmulas, nada más, pero no explica otra cosa más que "las cosas son así y no pienses más en eso". Por eso atacas, cin argumentos y sólo descalificando a la teoría de Everett. Pero te sugiero que leas a David Deutsch en "La estructura de la realidad" para que entiendas que es la mejor explicación posible para la computación cuántica, por ejemplo.

    ResponderEliminar
    Respuestas
    1. Como demuestra Hermann, Copengahe proporciona una explicación causal de lo que está ocurriendo. Lo que no da es uma explicación cuántica, porque no se puede, ya que el mundo es cuántico.
      En los post sobre filosofía de la ciencia de esta blog se explica claramente que este blog es empirista, como toda la física teórica, pero no positivista lógico.
      Si piensas que el post descalifica a Everett, léelo de nuevo.
      La computación cuántica la explica Copenhague perfectamente.

      Eliminar