4 dic 2019

¿Dónde se esconden las relaciones de indeterminación en la integral de camino de Feynman?


En las formulaciones de Heisenberg y de Schrödinger de la mecánica cuántica, los observables están representados por operadores hermíticos en el espacio de Hilbert de todos los posibles estados cuánticos. Sus autovalores son los posibles resultados al realizar la medición del observable, y sus autovectores son los estados cuánticos en los que ese observable toma un valor bien definido. Si llamamos $\hat{A}$ a uno de estos operadores, el estado cuántico $|\psi\rangle$ en el que se encuentra el sistema será, en general, una superposición de autoestados correspondientes a diferentes autovalores de $\hat{A}$, de tal manera que, en ese estado cuántico, el observable correspondiente a $\hat{A}$ no toma un valor bien definido. Es importante remarcar que lo que ocurre no es que el sistema cuántico sí tiene un valor de $\hat{A}$, pero que está oculto para nosotros. Lo que pasa en este caso es que, en ese estado cuántico, entre las propiedades del sistema no está el tomar un valor de $\hat{A}$ bien determinado.

Cualquier estudiante que esté en el ecuador de sus estudios universitarios de Física sabe que el grado de indeterminación del observable $\hat{A}$ en ese estado cuántico $|\psi\rangle$ se puede cuantificar como el módulo de un vector $|\psi_A\rangle$ $$
\Delta A = | |\psi_A\rangle | \>,
$$ donde $|\psi_A\rangle$ es un vector que se obtiene, a partir de $|\psi\rangle$, realizando la operación $$
|\psi_A\rangle= (\hat{A}-\langle A\rangle \hat{I})|\psi\rangle \>.
$$ Aquí $\hat{I}$ es el operador identidad, y$$
\langle A\rangle = \langle \psi | \hat{A} |\psi \rangle
$$ es el valor esperado de $\hat{A}$ en el estado $|\psi\rangle$. Es sencillo comprobar que, si realizamos muchas mediciones de $\hat{A}$, estando en todas ellas el sistema previamente en el estado $|\psi\rangle$, entonces $\Delta A$ coincide con la desviación típica de los resultados $$
\Delta A= \sqrt{\langle A^2\rangle-\langle A\rangle^2}
$$

La característica principal que tiene la mecánica cuántica, que la hace completamente diferente a la física anterior, es que los operadores que se utilizan para describir los observables físicos en general no conmutan. Si llamamos $\hat{B}$ a uno de los operadores que no conmuta con $\hat{A}$ $$
[\hat{A},\hat{B}]\neq 0
$$ entonces se puede ver que la desigualdad de Schwarz, aplicada a los estados $| \psi_A\rangle$ y $| \psi_B\rangle$, $$
\langle \psi_A | \psi_A \rangle \langle \psi_B | \psi_B \rangle \geq  | \langle \psi_A | \psi_B \rangle |^2 \geq (\operatorname{Im} \langle \psi_A | \psi_B \rangle )^2 \>,
$$ conduce a la relación de indeterminación $$
\Delta A \Delta B \geq \frac{1}{2} |\langle  \psi | [\hat{A},\hat{B}]   |\psi  \rangle|
$$
El significado físico de esta relación es que, si el conmutador es no nulo, es imposible encontrar algún estado cuántico en el que ambos observables estén bien determinados y, cuanto más determinado esté el observable $\hat{A}$ en un estado cuántico, más indeterminado estará $\hat{B}$ en ese estado, ya que el producto de las indeterminaciones no puede ser inferior a $\frac{1}{2} |\langle  \psi | [\hat{A},\hat{B}]   |\psi  \rangle|$. Por ejemplo, si tomamos $\hat{A}=\hat{x}$ y $\hat{B}=\hat{p}$, como el conmutador entre la coordenada $\hat{x}$ y su momento correspondiente $\hat{p}$ es $$
[\hat{x}, \hat{p}] = i\hbar \hat{I}
$$ lo que se obtiene es la famosa relación de indeterminación de Heisenberg $$
\Delta x \Delta p \geq \frac{\hbar}{2}
$$
Sin embargo, hay otra formulación de la mecánica cuántica, equivalente a la de Heisenberg y a la de Schrödinger, en la que los observables no entran como operadores en el espacio de Hilbert de estados cuánticos. Se trata de la formulación de la integral de camino de Feynman. Para una persona que no conozca esta formulación de la mecánica cuántica, puede ser conveniente estudiar qué ocurre en un caso sencillo, como el interferómetro de Mach-Zehnder, donde se produce interferencia entre dos caminos. Para saber si esta interferencia es constructiva o destructiva hay que estudiar la diferencia entre las fases asociadas a cada camino, teniendo cuidado de no equivocarnos en el cálculo de cada una de las fases. Con este ejemplo sencillo se puede ver con claridad que, para que las probabilidades de que el fotón llegue a los distintos detectores sumen uno, lo que hay que sumar de cada camino para calcular la interferencia no es la probabilidad, sino la amplitud de probabilidad.



Dado que los dos caminos en el interferómetro contribuyen al patrón de interferencias, tenemos que admitir que el fotón que es detectado por el detector en el que hay interferencia constructiva no ha seguido ninguno de los dos camino de forma bien definida: entre las propiedades del fotón no está el haber seguido una trayectoria bien determinada. Podemos colocar los detectores de otra manera, para comprobar si el fotón se refleja o no en el primer espejo semireflector, pero entonces el observable que antes sí tomaba un valor bien definido (el que decía que el fotón acabará con probabilidad 1 en el detector donde se producía interferencia constructiva), ahora ya no toma ningún valor bien definido. Tenemos así un ejemplo sencillo de dos observables incompatibles, como $\hat{A}$ y $\hat{B}$ en el ejemplo anterior.

De todo esto se deduce que, para poder calcular la amplitud de probabilidad de que el fotón llegue, desde la fuente $a$ hasta un detector $b$ que haya en el interferómetro de Mach-Zehnder, hay que sumar las amplitudes de probabilidad asociadas a cada camino. $$
\Phi(a,b)=\Phi_1+\Phi_2
$$
Pero, ¿qué ocurre si vamos modificando el experimento poco a poco para que cada vez sean más los caminos accesibles al fotón? En ese caso tenemos $$
\Phi(a, b) = \sum _{{\rm todos \>  los \>caminos \> desde} \> a \> {\rm hasta} \> b} \>
\Phi_i \>.
$$ Todos los caminos tienen que contribuir con una amplitud de probabilidad $\Phi_i$ del mismo módulo, pero con argumentos (fases) distintos, para que pueda haber interferencias. Como, además, estos $\Phi_i$ tienen que ser funcionales del camino $x(t)$, podemos escribir $$
\qquad \Phi(a, b) = \sum _{{\rm todos \>  los \>caminos \> desde} \> a \> {\rm hasta} \> b} \> e^{i S [x (t)] / \hbar} \>, \qquad
$$ donde $S[x(t)]$ es la fase asociada al camino $x(t)$, multiplicada por $\hbar$ para que tenga unidades de acción. Al tratarse de un continuo de caminos, este sumatorio tiene que ser, en realidad una especia de integral, $$
\Phi(a, b) = \int_{x(t_a)=x_a}^{x(t_b)=x_b} {\cal D}x(t) \> e^{i S[x(t)]/\hbar}\>,
$$ y este es el motivo por el que se le denomina integral de camino de Feynman.

Una de las ventajas que tiene la formulación de la integral de camino de Feynman es que en ella se ve con claridad por qué los números complejos son necesarios en mecánica cuántica. Es el hecho de que la fase asociada a cada camino sea el argumento de un número complejo lo que hace que pueda haber interferencias, ya que, al crecer ésta, la dirección a la que apunta ese número complejo va girando sin que por ello éste cambie de módulo.

Aquellos caminos cuyas amplitudes asociadas sean números complejos de argumento similar dan lugar a interferencia constructiva, de la misma manera que las fuerzas que se aplican sobre un objeto en una misma dirección colaboran para acelerar ese objeto en esa dirección.
En cambio, aquellos caminos cuyas amplitudes tengan argumentos que difieran en $\pi$ radianes darán contribuciones a la amplitud de probabilidad opuestas y se cancelarán, dando interferencia destructiva, de la misma manera que fuerzas del mismo módulo que se aplican en sentidos opuestos sobre un cuerpo no contribuyen a acelerarlo.

Otra de las ventajas de esta formulación es que con ella el límite clásico ($ \hbar \to 0 $) se puede hacer de forma inmediata, ya que, cuando las acciones de todos los caminos son mucho mayores que $\hbar$ ($ S \gg \hbar $), lo que tenemos son giros muy rápidos de los números complejos, incluso aunque correspondan a trayectorias muy parecidas. Se puede decir que cada camino da lugar a un número complejo del mismo módulo, pero de dirección aleatoria.
Al sumar todos estos números complejos que apuntan en todas direcciones se obtiene cero (interferencia destructiva al sumar todos esos caminos), salvo para aquellos caminos cuya fase sea estacionaria  $$
\delta S = 0 \>,
$$ ya que entonces los caminos cercanos a ellos tiene una fase muy parecida, con lo que no hay cancelación. Es decir, en este límite los únicos caminos que contribuyen son los que está muy cerca del camino que hace extrema a S. Vemos, por tanto, que en el límite clásico $S$ se comporta como la acción, y por eso la podemos identificar como la acción de la teoría clásica que surge como el límite $ \hbar \to 0 $ de la teoría cuántica con la que estamos trabajando. En este límite sí podemos decir que la partícula ha seguido una trayectoria más o menos bien definida: la que hace a la acción extremal.

Pero volviendo a las condiciones en las que las acciones no son mucho más grandes que $\hbar$, es decir, a las condiciones en las que los efectos cuánticos sí son importantes, nos surge la siguiente pregunta. Dado que la formulación de Feynman de la mecánica cuántica es equivalente a las de Heisenberg y Schrödinger, las relaciones de indeterminación tienen que estar escondidas en algún sitio. Una característica sorprendente de las integrales de camino es que con ellas se trabaja con números reales y complejos, en vez de con operadores que no conmutan. ¿Dónde están escondidas, por tanto, las relaciones de indeterminación en esta formulación? Eso es lo que vamos a analizar en este artículo.

6 nov 2019

El anumerismo de la verdadera derechita cobarde

Vamos a empezar una clase de 3° de ESO. Si escribimos la masa de la Tierra en kilogramos y en notación científica$$
5,972 × 10^{24}
$$¿cuál de todos estos números es el más importante? Para los lectores de este blog esta pregunta puede parecer demasiado básica, pero la realidad es que es muy fácil encontrar personas a las que esta pregunta les supone un reto. Si os encontráis en la tesitura de tener que explicarle la respuesta a alguna de estas personas o a algún estudiante de ESO, os recomiendo que deis una pista. Imaginad que todos los seres vivos de la Tierra se cambian de planeta. La masa de todos ellos, de nuevo en kilogramos, es de unos$$
5,5 × 10^{14}
$$¿Cuál sería la nueva masa del planeta Tierra? Para poder apreciar la diferencia te tienes que ir a 10 cifras significativas. El motivo es que estamos restando dos números de órdenes de magnitud, 24 y 14, muy distintos. $10^{24} - 10^{14}$ es prácticamente $10^{24}$.

Ahora pensad en el cuñado que en la cena de Nochebuena te cuenta que se ha comprado un BMW de alta gama por $10^5$ euros y que está muy contento porque le han dado un vale para que haga la primera recarga de gasolina gratis. ¿Alguien sería capaz de tomar la decisión de aceptar determinada oferta en un concesionario porque te regalan la primera recarga de gasolina? Una cosa es no entender bien el concepto de orden de magnitud, y otra que esta ignorancia te lleve a tomar decisiones irracionales con tu propio dinero. Si encontramos a alguien así, y no le tenemos demasiado aprecio, parece que este asunto es para tomárselo a cachondeo, ¿verdad?

La cosa ya no hace tanta gracia cuando escuchas en los medios de comunicación declaraciones de los políticos de ultraderecha como ésta:

30 oct 2019

Vídeo de la conferencia. "Agujeros Negros en Nuestros Superconductores". Prof. Daniel Areán

  Viernes 15 de Noviembre 2019
  19:30
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "Agujeros Negros en Nuestros Superconductores"
 Ponente Prof. Daniel Areán
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


La Teoría de Cuerdas nos ha proporcionado una nueva herramienta para entender sistemas en la frontera de la física teórica: la Correspondencia Holográfica. Esta teoría quizá nos permita describir sistemas tan interesantes como los superconductores de alta temperatura en términos de ... agujeros negros!

Vídeo de la conferencia. "El origen de la materia oscura". Prof. Guillermo Ballesteros

  Viernes 15 de Noviembre 2019
  18.00
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "El origen de la materia oscura"
 Ponente Prof. Guillermo Ballesteros
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


¿Qué es la materia oscura? La respuesta más breve y sencilla es que no lo sabemos. Sin embargo, sí que sabemos algunas cosas sobre ella; por ejemplo, que es unas seis veces más abundante en el Universo que la materia de la que estamos hechos nosotros. En esta charla hablaremos de cómo podemos desvelar las propiedades de esta materia (que tal vez deberíamos llamar "invisible") y de las ideas básicas existentes para explicar su origen.


29 oct 2019

Vídeo de la conferencia. "De los lápices a las antipartículas". Prof. Ángel Uranga

  Jueves 14 de Noviembre 2019
  19:30
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "De los lápices a las antipartículas".
 Ponente Prof. Ángel Uranga
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


En esta charla realizaremos un viaje desde experiencias muy cotidianas como la imagen un lápiz distorsionada por la refracción de la luz hasta el mundo subatómico de las partículas y antipartículas, pasando por los extraños fenómenos en Mecánica Cuántica, como en el experimento de la doble rendija.

Vídeo de la conferencia. "¿Dónde y cómo buscar a la materia oscura?". Prof. Ángeles Moliné.

  Jueves 14 de Noviembre 2019
  18.00
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "¿Dónde y cómo buscar a la materia oscura?
 Ponente Prof. Ángeles Moliné.
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


Una gran cantidad de evidencia sobre la existencia de la materia oscura se ha acumulado a partir de observaciones astrofísicas y cosmológicas. En las últimas décadas, un gran esfuerzo se ha centrado en la comprensión de su naturaleza así como en su detección. En esta charla, daré una breve descripción sobre cómo y dónde buscar esta misteriosa materia de nuestro universo.

28 oct 2019

Vídeo de la conferencia. "¿Es la gravedad una interacción fundamental?". Prof. Enrique Álvarez

  Viernes 8 de Noviembre 2019
  19:30
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título ¿Es la gravedad una interacción fundamental?
 Ponente Prof. Enrique Álvarez
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


Se discutirán los argumentos en favor de que la gravitación es una teoría emergente a distancias macroscópicas desde una teoría desconocida que determina la dinámica a distancias muy pequeñas.

Vídeo de la conferencia "Invisibles en el Cosmos....e Invisibles en la Ciencia". Prof. Olga Mena

  Viernes 8 de Noviembre 2019
  18.00
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "Invisibles en el Cosmos....e Invisibles en la Ciencia"
 Ponente Prof. Olga Mena 
 Institución (U. Valencia & IFIC)
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


En esta charla aprenderemos sobre los "Invisibles" de nuestro Cosmos,
como la materia y energía oscuras, y cómo estudiar las huellas que han
dejado para que pasen a ser, no visibles, pero al menos, más
conocidos. ¡Es sólo así cómo podremos descifrar el futuro de nuestro
universo! "Invisible" ha sido el papel de ciertas astrónomas cuyo
legado científico también compartiremos.

27 oct 2019

Vídeo de la conferencia. "Lo grande y lo pequeño: ¿Hay realmente diferencia?". Prof. Antonio González-Arroyo

  Jueves 7 de Noviembre 2019
  19:30
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "Lo grande y lo pequeño: ¿Hay realmente diferencia?"
 Ponente Prof. Antonio González-Arroyo
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


Un paseo poco convencional por el mundo de las escalas. ¿Qué significan a la luz de la fisica clasica, las matemáticas, y la física moderna? Eso nos permitirá descubrir su relevancia y sus misterios.

 

Conferencia. "Partículas fantásticas y dónde encontrarlas: Buscando al bosón de Higgs en el LHC" Prof. José Miguel No.

  Jueves 7 de Noviembre 2019
  18.00
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "Partículas fantásticas y dónde encontrarlas: Buscando al bosón de Higgs en el LHC"
 Ponente  Prof. José Miguel No
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


El acelerador LHC (por Large Hadron Collider) del CERN es la mayor máquina construida por el ser humano, con el objeto de explorar las propiedades básicas de la naturaleza, la posible existencia de nuevas partículas y sus interacciones con las ya conocidas. En 2012, tras muchos años de búsqueda experimental, se descubrió el bosón de Higgs en el LHC, y ahora se estudian sus características. Os propongo un viaje (imaginario!) al LHC para entender como sabemos de la existencia del bosón de Higgs, y como se investiga la posibilidad de que existan otros “Higgses”.

23 oct 2019

"Divulgación científica" que confunde en The Conversation

The Conversation es una plataforma de divulgación en la que el contenido lo producen expertos vinculados a universidades y centros de investigación. Esta plataforma trabaja con medios de referencia que utilizan las publicaciones elaboradas por estos expertos como necesario complemento para las informaciones elaboradas por los periodistas. Está gestionada por The Conversation Media Group, que es una organización sin ánimo de lucro del sector de la educación que recibe dinero de gobiernos, universidades, centros de investigación y empresas privadas.

La sección española nació en 2018, y está dirigida por el periodista Rafael Sarralde (@rafasarralde). En su primer año de vida ha publicado más de 880 artículos que han superado los 10 millones de lecturas. Sale a una media de más de 10000 lecturas por artículo. He leído algunos de estos artículos y muchos son de calidad, aunque hay algunos bastante malos.

Hoy me he encontrado precisamente con uno que, además de no tener la calidad que debería caracterizar a este tipo de plataformas, considero que su lectura hace más mal que bien a los estudiantes universitarios y de bachillerato que todavía no dominan la física moderna. Se trata del artículo "La relatividad de Einstein también obliga a redefinir el concepto de masa" de Manuel D. Barriga-Carrasco, profesor del Área de Mecánica de Fluidos de la Escuela Técnica Superior de Ingenieros Industriales en la Universidad de Castilla-La Mancha, según esta misma plataforma.



El artículo, a pesar de ser corto, está plagado de párrafos que inducen a la confusión a los estudiantes, algunos de ellos rotundamente falsos. Voy a intentar explicar, punto por punto, por qué estos párrafos, que constituyen la mayor parte del artículo, no deberían formar parte de un artículo de divulgación científica.

20 oct 2019

El impacto de la relatividad en el pensamiento


1919 eclipse positive.jpg

En educación se denomina cambio conceptual al cambio de cosmovisión que experimentan los estudiantes cuando aprenden un nuevo contenido científico sobre algún fenómeno que echa por tierra las ideas previas que tenían sobre ese fenómeno. Un ejemplo sencillo lo tenemos cuando enseñamos a los alumnos que no se pueden separar los polos de un imán. Si partimos un imán en dos trozos, el resultado no es dos monopolos magnéticos separados, sino dos nuevos imanes, cada uno de ellos con su polo norte y su polo sur. Este hecho, que les parece "mágico" a los estudiantes cuando tienen una visión del imán como si fuera una especie de dipolo eléctrico, se vuelve natural cuando los estudiantes aprenden que las líneas de campo magnético son cerradas. El polo sur no es más que la parte del imán por donde entran las líneas. Si partimos el imán, hay una nueva zona por donde entran las líneas, con lo que podemos decir que se ha "creado" un nuevo polo sur. Y lo mismo podemos decir del nuevo polo norte, es una nueva zona por donde salen las líneas de campo. Una vez el estudiante ha experimentado ese cambio conceptual que le lleva a ver al imán como un conjunto de líneas de campo cerradas, las propiedades de éstos se entienden mucho mejor.
Magnetic dipole moment.jpg


Este cambio conceptual es algo que tienen que experimentar los alumnos por ellos mismos. Es un paso que no pueden dar los profesores por ellos. Este es el motivo por el que, en muchas de las metodologías constructivistas que los profesores ponemos en práctica en la escuela, la acción de los profesores pasa fundamentalmente por provocar en los alumnos conflictos cognitivos que les generen motivación intrínseca. Resolviendo esos conflictos cognitivos es como los estudiantes experimentan el cambio conceptual que les lleva a aprender ese nuevo contenido científico.

Como señalaron los historiadores de la ciencia A. Koyré y T. Kuhn, el mismo desarrollo histórico de loa ciencia está lleno de cambios conceptuales profundos que experimentaron los científicos. Se trata de las revoluciones científicas que, en la terminología kuhniana, implican cambios de paradigmas que redefinen de nuevo lo que se considera científico y lo que no.

Un ejemplo clásico lo podemos encontrar en el paso de la física aristotélica a la mecánica newtoniana. Para los aristotélicos, que creían que un cuerpo pesado se desplazaba, por su propia naturaleza, de una posición superior a una más baja hasta llegar a un estado de reposo natural, un cuerpo que se balanceaba simplemente estaba cayendo con dificultad. Desde este punto de vista, de los infinitos experimentos que se pueden hacer con un péndulo, a uno se le ocurre medir, por ejemplo, el tiempo que éste tarda en pararse. Dado que sabemos hoy que este tiempo depende del rozamiento que experimente el péndulo, difícilmente podemos obtener una ley física interesante de este dato. Galileo, por otra parte, al observar el cuerpo que se balanceaba, vio un movimiento periódico, un cuerpo que casi lograba repetir el mismo movimiento, una y otra vez. Este cambio conceptual hace que a uno se le ocurra medir el periodo del péndulo, que, sabemos hoy en día, está relacionado con la intensidad del campo gravitatorio en el lugar donde se encuentra el péndulo. Gracias a este nuevo punto de vista, Galileo observó también otras propiedades del péndulo y construyó muchas de las partes más importantes y revolucionarias de su nueva mecánica. Por tanto, es a Galileo a quien hay que atribuir el mérito de conseguir este original cambio de visión. Pero nótese que este mérito no se manifiesta en este caso como observación más exacta u objetiva del cuerpo que se balancea. En cuanto a la capacidad descriptiva se puede decir que la percepción aristotélica tenía la misma exactitud. El mérito de Galileo en este caso radica en ser capaz de mirar al péndulo como nadie lo había visto antes.

Sin embargo, estos cambios de paradigmas no son exactamente iguales a los cambios conceptuales que experimentan los estudiantes cuando aprenden ciencia. En primer lugar, en muchos casos la revolución científica ocurre muchas veces sin que muchos científicos e intelectuales experimenten el cambio conceptual. Un ejemplo clásico es el de los astrónomos geocentristas que murieron sin aceptar el uso del telescopio como instrumento útil para la astronomía, instrumento cuyo uso se acabó imponiendo porque los jóvenes abrazaron el uso de esta nueva tecnología. En segundo lugar, porque en el desarrollo real de la ciencia no hay siempre una figura clara de autoridad, como ocurre en el aula con el profesor, que orienta las actividades con el objetivo de llegar a ese cambio conceptual. Para que el nuevo paradigma triunfe entre la comunidad científica son necesarias fuertes discusiones científicas que duran varios años y nuevos datos experimentales que requieren tiempo. A su vez, para que este nuevo paradigma llegue al resto del mundo intelectual y al resto de los ciudadanos hace falta una divulgación científica de calidad que raramente se da.

En este artículo vamos a analizar cómo fue el cambio de paradigma de la física newtoniana a la física relativista, estudiando el impacto que tuvo sobre el pensamiento tanto el surgimiento de la Teoría Especial de la Relatividad (TER), en 1905, como la Teoría General de la Relatividad (TGR), en 1915. Sin embargo, para ello es importante dar primero algunas pinceladas sobre cómo fue el proceso de difusión de estas dos teorías, ya que éste condicionó las distintas opiniones y comentarios que sobre ellas se hicieron. Debido a la primera guerra mundial (1914-1918), la difusión de la relatividad especial, sobre todo entre los no-científicos, se vio retrasada, coincidiendo con la difusión de la relatividad general, de forma que las dos teorías se discutieron prácticamente al mismo tiempo.

23 sept 2019

TÉCNICAS EXPERIMENTALES: Ajuste por el método gráfico

Si sospechamos que las magnitudes físicas $x$ e $y$ está correlacionadas mediante la función $y=f(x)$, podemos representar en una gráfica el valor de $y$ que hemos medido para cada valor de $x$. ¿Cómo podemos saber si los puntos obtenidos en esa gráfica, con sus rectángulos de error, se ajustan a la curva que predice la ley $y=f(x)$?

17 sept 2019

La mayoría de la población no tiene motivos para idolatrar a los grandes científicos


Solvay conference 1927.jpg


El Proyecto de Genealogía de Matemáticas (Math Genealogy Project) es un proyecto muy ambicioso del Departamento de Matemáticas de la Universidad de Dakota del Norte, en colaboración con la American Mathematical Society, que pretende recopilar información sobre todos los científicos de todo el mundo y de todas las épocas que han recibido un doctorado en matemáticas.

Además del título de la tesis, la universidad y el año, uno de los datos más interesantes que se puede analizar en esta base de datos es quién dirigió la tesis a quién. Así, el proyecto permite construir el árbol genealógico de todos los matemáticos.

La idea de escribir este post me ha venido cuando me han regalado el póster con mi árbol genealógico:



Como indica la misma página del proyecto, es cierto que la relación entre el director de tesis y sus doctorandos no siempre ha sido tan formal como lo es ahora, pero este árbol sí nos da una idea de una cierta relación mentor/discípulo que nos permite trazar la historia intelectual de los proyectos de investigación en matemáticas.

Lo primero que llama la atención del póster es que entre los ancestros de Werner Heisenberg, el científico más brillante de todos los que desarrollaron la mecánica cuántica, podemos encontrar un porcentaje importante de los grandes físicos y matemáticos de la historia, desde Copérnico, Huygens y Leibniz, hasta Sommerfeld y Klein, pasando por Gauss, Pfaff, Dirichlet, Fourier, Poisson, Lagrange, Laplace, Euler, D'Alembert, Bernoulli entre muchos otros. Científicamente hablando, ¡todos son familia! ¿Es casualidad? Es evidente que no. Los avances en matemáticas no son tan dependientes de poder trabajar en una universidad con caros equipos de laboratorio, como ocurre en otras disciplinas más experimentales. Tiene que haber un motivo.

Un gran científico no le dirige la tesis a cualquiera, así que la primera hipótesis es que, de todos los candidatos, sólo a los mejores, a los que superan unas duras pruebas, se les permite formar parte de esa familia científica. Como sólo los mejores entran, está más o menos garantizado que la mayor parte de los grandes avances en matemáticas que se van a hacer van a ser realizados por miembros de esa familia.

15 sept 2019

TÉCNICAS EXPERIMENTALES: Medida múltiple y su aplicación al cálculo de errores.

Ya hemos visto que, cuando estamos realizando una medición de una magnitud física $x$ y el error aleatorio no es despreciable, lo que debemos hacer es tomar varias medidas y quedarnos con el valor medio de todas ellas. Pero, ¿qué incertidumbre experimental debemos asignarle a ese resultado?

Lo que la mecánica cuántica nos enseñó acerca de la invariancia gauge

De todas las interacciones de la naturaleza, la que se estudia en mayor detalle en la universidad en los denominados grados STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) es la electromagnética. Todos los estudiantes que entran en estos grados saben ya desde Bachillerato que sobre toda partícula con carga $q$ y velocidad $\vec{v}$ sometida a un campo electromagnético se ejerce siempre una fuerza (denominada fuerza de Lorentz) de valor $$
\vec{F}=q\vec{E}+q\vec{v}\times \vec{B}
$$ donde $\vec{E}$ es valor del campo eléctrico en el punto donde está situada la partícula y $\vec{B}$ el campo magnético. Esto implica que, en el caso de que la partícula sea no relativista, la ecuación diferencial que describe su movimiento es, si la fuerza de Lorentz es la única que actúa:
$$
m\vec{a}=q\vec{E}+q\vec{v}\times \vec{B}
$$ donde $m$ es la masa de la partícula y $\vec{a}$ es su aceleración.

Por otro lado, ya en la universidad los estudiantes aprenden que esta ecuación de movimiento se puede obtener imponiendo que el camino que tiene que seguir la partícula entre los puntos espaciotemporales $(t_i, \vec{r}_i)$ y $(t_f, \vec{r}_f)$ sea aquel que minimiza la acción
$$
S=\int \left(  \frac{1}{2} m v^2 -q\phi \right)dt+  q\int \vec{A}\cdot d\vec{r} =
$$ $$
=\int \left(  \frac{1}{2} m v^2 -q\phi +q\vec{A}\cdot\vec{v}\right)dt
$$ (donde las integrales se realizan entre esos dos puntos espaciotiemporales) siempre que identifiquemos a $\vec{E}$ y $\vec{B}$ con
$$
\vec{E}=-\vec{\nabla} \phi - \frac{\partial \vec{A}}{\partial t}
$$ $$
\vec{B}=\vec{\nabla} \times \vec{A}
$$ Aquí $\phi$ es el potencial eléctrico y $\vec{A}$ es el potencial vector magnético.

Sin embargo, aunque aparecen en la acción, en mecánica clásica tanto $\phi$ como $\vec{A}$ no representan entes reales, no tienen ningún significado físico. Son simplemente campos auxiliares matemáticos que se introducen por pura utilidad para poder calcular mejor los campos $\vec{E}$ y $\vec{B}$. Estos últimos sí tienen significado físico, ya que ejercen fuerzas que podemos medir sobre las partículas cargadas.

Dada una configuración concreta de $\phi$ y $\vec{A}$, si hacemos la transformación (denominada transformación gauge)
$$
\phi^\prime=\phi - \frac{\partial \chi}{\partial t}
$$ $$
\vec{A}^\prime=\vec{A} + \vec{\nabla} \chi
$$ (donde $\chi$ es una función diferenciable arbitraria de $\vec{r}$ y $t$) los campos $\vec{E}$ y $\vec{B}$ se mantienen invariantes y la acción $S$ de la partícula cargada sólo cambia en la cantidad $q(\chi_f-\chi_i)$, que es una constante que no afecta a las ecuaciones de movimiento. Además, las ecuaciones de Maxwell son invariantes bajo una transformación gauge, ya que en ellas parecen $\vec{E}$ y $\vec{B}$, y no los potenciales $\vec{A}$ y $\phi$. Es decir, la nueva configuración que se obtiene al hacer una transformación gauge describe exactamente la misma física que la configuración inicial, con los mismos campos $\vec{E}$ y $\vec{B}$ evolucionando igual y ejerciendo la misma fuerza sobre las partículas cargadas. A esta invariancia que tiene la teoría del campo electromagnético se la denomina invariacia gauge [Landau1992].

Algunas configuraciones gauge son más convenientes que otras para realizar ciertos cálculos, pero es muy importante tener esta invariancia gauge presente para distinguir las cosas que ocurren físicamente en la realidad de lo que son simplemente elementos matemáticos sin existencia física que nos ayudan a hacer los cálculos. La realidad no es lo que los matemáticos y los físicos escribimos en nuestros papeles, y los procesos físicos no son los pasos que realizamos cuando hacemos cálculos. En la teoría clásica del electromagnetismo lo que existe en realidad son los campos $\vec{E}$ y $\vec{B}$ y las partículas cargadas que interaccionan con ellos. Los valores concretos de $\vec{A}$ y $\phi$ no tienen existencia real. Esto lo sabe cualquier estudiante de los grados STEM cuando asigna arbitrariamente el valor de $\phi$ igual a cero voltios al punto que quiere a la hora de resolver los problemas de electrostática. En estos problemas sólo las diferencias de potencial eléctrico entre distintos puntos tienen significado físico, pero no su valor concreto, ya que estas diferencias son las que determinan el campo eléctrico $\vec{E}$.

Sin embargo, el universo en el que vivimos no es clásico. Es cuántico. ¿Siguen siendo en mecánica cuántica las leyes de la física invariantes ante una transformación gauge? ¿Siguen siendo los campos $\vec{E}$ y $\vec{B}$ los que tienen significado físico frente a $\vec{A}$ y $\phi$? Para entender en su totalidad qué ocurre con la invariancia gauge en mecánica cuántica habría que irse al formalismo de la teoría cuántica de campos. Sin embargo, muchas de las ideas cruciales ya se pueden discutir en el contexto de una partícula cuántica no relativista que interacciona con un campo electromagnético clásico. Y eso es lo que vamos a hacer en el presente artículo.


8 sept 2019

TÉCNICAS EXPERIMENTALES: Propagación de errores

Ya hemos visto que, al medir cualquier magnitud física $x$, siempre tenemos una incertidumbre experimental $\Delta x$. Si ahora utilizamos ese valor medido de $x$ para calcular el valor de otra magnitud $y$ utilizando una ley conocida que nos dice que $y=f(x)$, ¿cuál es la incertidumbre experimental $\Delta y$ que hay que asignar a nuestro resultado?

22 ago 2019

¿Cuántos personajes femeninos hay en tus problemas de física?

"Un padre y su hijo viajan en coche y tienen un accidente grave. El padre muere y al hijo se lo llevan al hospital porque necesita una compleja operación de emergencia, para la que llaman a una eminencia médica. Pero cuando entra en el quirófano dice: "No puedo operarlo, es mi hijo". ¿Cómo se explica esto?"

A muchos de nosotros nos ha sorprendido esta historia la primera vez que la hemos oído. No porque no pensemos que todas las eminencias medicas sean hombres, sino porque, en la mayoría de las profesiones, siempre asignamos el género masculino por defecto a las personas que las desempeñan.

Esto tiene que ver con lo que estamos acostumbrados a ver y oir desde pequeños, desde los cuentos infantiles hasta los juguetes que se fabrican.

En el siglo XXI, en los clicks de Playmobil sigue siendo difícil encontrar mujeres con uniforme. La mayoría de las profesiones las desempeñan hombres.

Aunque eliminemos del mundo de los niños pequeños todas las actitudes, comportamientos y expresiones machistas, toda nuestra cultura sigue siendo esencialmente masculina. En la inmensa mayoría de las historias de ficción los únicos personajes femeninos que tienen cierto nivel de protagonismo lo son por su vínculo con algún personaje masculino existente, típicamente algún tipo de relación amorosa o de parentesco. Los hombres, en cambio, somos protagonistas por el resto de infinitos motivos. Se trata de una injusticia que ya denunció Virginia Woolf hace 90 años:
"Era extraño pensar que todas las grandes mujeres de ficción fueran, hasta el día de Jane Austen, vistas no sólo desde el otro sexo, sino también únicamente en su relación con el otro sexo. Y qué pequeña es esa parte en la vida de una mujer..." [Woolf1929]

Esta cita de Woolf acabó plasmándose en el cómic Unas lesbianas de cuidado de la dibujante estadounidense Alison Bechdel, dando lugar a lo que hoy en día se denomina test de Bechdel/Wallace [Bechdel2015], en honor a Liz Wallace, que fue quien se lo sugirió a Bechdel (y quien se inspiró en Woolf) [Friend2011]. Se trata de un test muy poco exigente para saber si una obra cumple, no sólo con unos mínimos de presencia femenina, sino también con la condición de que las mujeres estén representadas más allá de lo que sería su relación con los hombres. Este test sólo exige que haya al menos dos personajes femeninos que hablen entre ellos en algún momento sobre algún tema que no involucre a los hombres. La gran cantidad de obras recientes que no superan un test tan poco exigente nos muestra que los avances que se han hecho en este asunto son, aunque existentes, todavía escasos, de tal forma que se puede hablar de que en el siglo XXI seguimos inmersos en un sesgo sistemático contra las mujeres tanto en la literatura como en el cine.

El efecto negativo de esta brecha de género en el comportamiento y expectativas de hombres y mujeres es difícil de cuantificar por lo enorme que es. Es imposible proteger completamente a las nuevas generaciones de este sesgo cultural, porque está en todas partes.

¿Contribuimos los profesores de física a perpetuar estos estereotipos? Ciertamente, hay muchos factores a tener en cuenta, desde la importancia que demos en clase a las contribuciones de las científicas más relevantes, pasando por si tratamos de manera diferente a alumnos y alumnas, hasta la metodología y las dinámicas de clase que establecemos, que nunca son neutrales y siempre benefician a un tipo de estudiantes frente a otros, y muchos otros factores que también son importantes.

En este post nos vamos a centrar sólo en uno de estos factores. Una parte de la actividad creativa de una profesora o un profesor de física consiste en inventarse problemas de papel y lápiz, con situaciones hipotéticas, experimentos mentales o reales, y en seleccionar ejemplos tanto de la vida cotidiana como de ficción para trabajar con ellos los conceptos físicos. Este es el motivo por el que me he entretenido en contar el porcentaje de personajes femeninos y masculinos en 3 libros de texto de Física y Química de 1° de Bachillerato. He anotado el género de los personajes, tanto en los ejemplos e ilustraciones como en los problemas que estos libros proponen a los alumnos.

20 ago 2019

¿Por qué flotan los astronautas en la Estación Espacial Internacional?

A rearward view of the International Space Station backdropped by the limb of the Earth. In view are the station's four large, gold-coloured solar array wings, two on either side of the station, mounted to a central truss structure. Further along the truss are six large, white radiators, three next to each pair of arrays. In between the solar arrays and radiators is a cluster of pressurised modules arranged in an elongated T shape, also attached to the truss. A set of blue solar arrays are mounted to the module at the aft end of the cluster.


Estamos acostumbrados a ver imágenes de los astronautas de la Estación Espacial Internacional (ISS) flotando en ingravidez, tanto en el interior como en el exterior de la nave. De hecho, la ISS sirve de laboratorio de ingravidez en el que se llevan a cabo experimentos de biología, física y otros campos.

Sin embargo, a lo mejor no nos hemos parado a pensar que la ISS mantiene una órbita alrededor de la Tierra bastante baja, a una altitud de entre 330 y 435 km sobre el nivel del mar, con lo que, de acuerdo con la ley de gravitación universal de Newton, la intensidad del campo gravitatorio allí es, aproximadamente
$g=\frac{GM}{(R+h)^2}=8,9 \frac{m}{s^2}$
donde G es la constante de Newton, y M y R son, respectivamente, la masa y el radio de la Tierra.

Este resultado es sorprendente, si tenemos en cuenta que la intensidad del campo gravitatorio en la superficie terrestre es de $9,8 m/s^2$. Resulta que la intensidad del campo gravitatorio en la ISS es sólo un poco más baja que la que experimentamos nosotros en la superficie de la Tierra. Usando la fórmula $\vec{P}=m\vec{g}$ para el peso de un objeto, vemos que los objetos y los astronautas en la ISS pesan sólo un 10% menos que lo que pesarían en la superficie de la Tierra, y que caen sólo con un 10% menos de aceleración de la que tendrían en caída libre en la superficie de la Tierra. Vamos, prácticamente igual.

Entonces, ¿por qué flotan los objetos y los astronautas en la ISS? La respuesta a esta sencilla pregunta encierra una de las ideas más profundas de la física.

9 jul 2019

Si vivimos en una simulación informática, ¿dónde están los bits fundamentales?


The.Matrix.glmatrix.2.png


CYPHER.- Te gusta ¿verdad? Te gusta observarlo.
TRINITY.- No seas ridículo.
CYPHER.- Lo vamos a matar ¿Lo has entendido?
TRINITY.- Morfeo cree que él es El Elegido.
CYPHER.- ¿Lo crees tú?
TRINITY.- No importa lo que yo crea.
CYPHER.- No lo crees ¿Verdad?
TRINITY.- ¿Estas seguro de que esta línea está protegida?
CYPHER.-  Sí, por supuesto.
TRINITY.- Me tengo que ir.

A pesar de lo que le están diciendo, la preocupación de Trinity es razonable. Podría ocurrir que haya un agujero de seguridad que hubiera permitido al otro bando pinchar la línea. Si fuera así, el enunciado "esta línea está protegida" sería falso. Llamemos a esta hipótesis, la hipótesis escéptica. Es decir, la hipótesis escéptica dice que es falso que la línea esté protegida, aunque Cypher nos diga que sí lo está. Como Trinity no es capaz de descartar la hipótesis escéptica, no podemos decir que tenga conocimiento de que la línea está protegida. Incluso aunque Trinity haya apostado por que sí lo está, y resulte ser cierto que lo está, no podemos decir que "sabe que lo está". Ya hemos visto en un artículo anterior que para saber algo, no sólo basta con que sea verdad. Son necesarias muchas más condiciones y la primera de ellas es que estemos convencidos de que es verdad, que estemos seguros de ello, que seamos capaces de descartar la hipótesis escéptica. Cada vez que alguien diga que sabe algo, podemos formular una hipótesis escéptica tal que, si es cierta, entonces no es cierto que ese alguien sabe ese algo. El escéptico dirá "¿Estás en condiciones de asegurar que la hipótesis escéptica es falsa?". Si su interlocutor reconoce que no puede descartar la hipótesis escéptica, entonces no podemos decir que sepa ese algo.

Hasta aquí no hay nada que nos sorprenda. Sin embargo, a lo largo de la historia del pensamiento muchos filósofos han ido más allá, siguiendo una tradición que no sólo se limita a la filosofía occidental, y han llegado a afirmar que es posible elaborar una hipótesis escéptica para prácticamente cualquier cosa que un sujeto asegure conocer, de tal manera que este sujeto va a ser incapaz de asegurar al 100% que esa hipótesis es falsa, reconociendo así que realmente no sabe lo que asegura saber. Los ejemplos más conocidos son los del filósofo, físico y matemático francés René Descartes.



La primera hipótesis escéptica de Descartes: el argumento del sueño.


MORFEO.- ¿Alguna vez has tenido un sueño, Neo, que pareciese muy real? ¿Qué ocurriría si no pudieras despertar de ese sueño? ¿Cómo diferenciarías el mundo de los sueños de la realidad?

Al darse cuenta Descartes de que no eran tan seguras todas las cosas que hasta ese momento creía conocer, el filósofo, físico y matemático francés comprendió que era de suma importancia intentar construir un edificio, un cuerpo de conocimientos sostenido sobre sólidos cimientos, de tal manera que podamos estar seguros de cada ladrillo del mismo [Descartes1647]. Pero al ponerse manos a la obra descubrió que esta empresa era tremendamente difícil, ya que era capaz de dudar de prácticamente cualquier cosa que hasta ese momento había creído saber. Por ejemplo, algo que parece tan obvio, como que ahora mismo, querido lector, está usted delante de una pantalla leyendo este artículo, también es vulnerable a la hipótesis escéptica de que a lo mejor está usted soñando que está delante de una pantalla, cuando en realidad tiene usted los ojos cerrados y está usted durmiendo en la cama.

Frans Hals - Portret van René Descartes.jpg

René Descartes. De Según Frans Hals - André Hatala [e.a.] (1997) De eeuw van Rembrandt, Bruxelles: Crédit communal de Belgique, ISBN 2-908388-32-4., Dominio público, Enlace

Aunque Descartes no estaba interesado en el problema del conocimiento, podemos tomar su ejemplo para concluir que no estamos autorizados a decir que usted, querido lector, sabe que está en estos momentos delante de una pantalla. Y esta primera hipótesis escéptica de Descartes no sólo se puede aplicar a la pantalla que usted cree que tiene delante, sino que arroja dudas sobre casi cualquiera de nuestras observaciones particulares sobre las cosas externas a nosotros. Cuando esté visitando algún lugar, o hablando con alguien, usted no puede descartar la posibilidad de que a lo mejor no está en ese lugar o con esa persona porque puede que esté soñando y, por tanto, tampoco estamos autorizados a decir que usted tiene conocimiento de estar en ese lugar o tener delante a esa persona.

¿Cómo podemos descartar la primera hipótesis escéptica de Descartes?


Es importante aclarar que lo que Descartes afirmó es que en realidad él no sabía que la hipótesis escéptica es falsa, ya que, para saber que algo es falso, es necesario estar seguro de que es falso. Y la evidencia experimental que él poseía es compatible, tanto con el hecho de que las cosas sean lo que parecen, como con el hecho de que en realidad esté soñando. Pero, ¿de verdad es usted, querido lector, incapaz de señalar algún hecho experimental que sea incompatible con que ahora mismo esté soñando? Es verdad que pensar que usted está despierto no le va a servir como hecho experimental que permita distinguir la vigilia del suelo, ya que en ambos casos uno piensa que está despierto. El mismo Descartes ya anticipó la respuesta que otros podían dar a su argumento, al señalar que los sueños no son tan nítidos como las experiencias reales. Además, en ellos ocurren cosas extrañas, bastante más impredecibles y con menos sentido que los sucesos que ocurren en la realidad. Por tanto, sí podría usted afirmar que sabe que no está soñando en estos momentos porque todo es en HD.

Pero Descartes sabía como defenderse de este contraargumento. Es verdad que los sueños no tienen la misma nitidez que la realidad, pero en ellos sí que pensamos que nuestras experiencias son nítidas, con lo que seguimos sin poder descartar la hipótesis escéptica.

En mi opinión, y en la de muchos otros filósofos [Hare2013], Descartes se equivocaba en esto. Su razonamiento sólo funciona si la única prueba experimental que tenemos es el hecho de que creemos que estamos teniendo experiencias nítidas. Pero las pruebas que tenemos de que no estamos soñando en estos momentos no se limitan a que parece que estamos teniendo experiencias nítidas, sino al hecho de que estamos teniendo experiencias nítidas. Esas experiencias son en sí mismas las pruebas experimentales de que no estamos soñando.

El segundo argumento escéptico de Descartes: el argumento del demonio maligno


No obstante, Descartes fue más allá con un argumento escéptico todavía más potente: ya no es sólo que a lo mejor no tiene usted una pantalla delante porque en realidad está usted soñando, sino que, a lo mejor, ni siquiera existen las pantallas, o ni siquiera tiene usted ojos para mirarlas, o ni siquiera existe el mundo físico. Un demonio maligno puede estar metiendo datos en su cerebro que le hacen creer que está teniendo experiencias sensoriales que provienen de una pantalla en la que está escrito este artículo.

Es más, a lo mejor ni siquiera las verdades matemáticas más evidentes, como que 2+3=5, son ciertas. El demonio maligno podría estar metiendo esa información en su cabeza para hacerle creer que 2+3=5, pero en realidad 2+3=4.
Un demonio maligno podemita está introduciendo datos en la cabeza de Albert Rivera para hacerle creer que 13 es inferior a la mitad de (13+1+11). Este es el motivo por el que en la cabeza del señor Rivera las leyes de la aritmética no se cumplen.

Por tanto, tiene usted que reconocer que ni siquiera sabe que existen las pantallas y que ni siquiera sabe que 2+3=5, ya que no está usted en condiciones de  asegurar que la hipótesis del demonio es falsa. Pero eso significa entonces que en realidad no sabe usted nada, ¿no?

Bueno, hay algo para lo que Descartes no fue capaz de encontrar una hipótesis escéptica. Aunque un demonio le esté metiendo esas cosas en su cabeza, incluso en esa situación, no tenía ninguna duda de su propia existencia. Ese es el famoso "Je pense, donc je suis" que Descartes introdujo como pilar fundamental de su filosofía en el Discurso del Método:

Pero enseguida advertí que mientras de este modo quería pensar que todo era falso, era necesario que yo, quien lo pensaba, fuese algo. Y notando que esta verdad: yo pienso, por lo tanto soy, era tan firme y cierta, que no podían quebrantarla ni las más extravagantes suposiciones de los escépticos, juzgué que podía admitirla, sin escrúpulo, como el primer principio de la filosofía que estaba buscando [Descartes1637].

El problema es que eso es lo único que nos queda de todas las cosas que creíamos saber. En realidad no sabemos ninguna salvo eso, que es ridículamente poco. Es un auténtico desastre epistemológico.

¿Cómo podemos descartar la segunda hipótesis escéptica de Descartes?


De nuevo, para Descartes usted no puede descartar la hipótesis escéptica porque todas las pruebas experimentales que tiene sobre cómo son las cosas son consistentes tanto con la hipótesis del demonio maligno como con que las cosas sean como parecen. Sin embargo, ¿es la evidencia que usted tiene sobre que 2+3=5 en realidad consistente con la hipótesis del demonio maligno? De nuevo, si esa evidencia se redujera exclusivamente al hecho de que usted cree que 2+3=5, Descartes tendría razón. Pero, ¿de verdad esa es la única prueba que usted tiene de que 2+3=5? Merece la pena que nos detengamos en este punto.

Cualquier persona que haya sido adoctrinada por la secta de los matemáticos platonistas contesta inmediatamente que sí tenemos una forma rigurosa de demostrar que 2+3=5. Ese enunciado no es más que un teorema de la aritmética muy fácil de probar a partir de los axiomas de Peano. Pero hay un problema con esto. Aunque esa inferencia esté bien hecha y, por tanto, sea válida, eso no significa que tenga que ser una buena inferencia, ya que los axiomas de Peano podrían ser falsos, o incluso podrían ser inconsistentes. No sirve de nada "demostrar" algo a partir de unos axiomas inconsistentes, ya que de un conjunto de proposiciones inconsistentes entre ellas se puede deducir cualquier cosa. Podríamos probar la conjetura de Goldbach y, al mismo tiempo, su negación. Podríamos probar que 2+3=5 y, al mismo tiempo, que 2+3 es distinto de 5. Para poder descartar con seguridad este escenario catastrófico para las matemáticas, es necesario, por tanto, demostrar que los axiomas de Peano son consistentes.

Afortunadamente, sí tenemos una demostración de que los axiomas de Peano son consistentes. El problema es que esa demostración parte de los axiomas de la teoría de conjuntos, axiomas más fuertes que los de Peano y, por tanto, más sospechosos de ser inconsistentes.  Es decir, si la aritmética fuera inconsistente, también lo sería la teoría de conjuntos. Es como si ocurre un asesinato, y tenemos un testigo que tiene toda la pinta de ser de confianza, pero no estamos totalmente seguros de que está diciendo la verdad y, para estar seguros de que ese testigo es de fiar, preguntamos a otra persona que conoce a ese testigo si ese testigo es de fiar. Esa segunda persona nos dice que sí, que es de fiar, pero ese testimonio nos sirve de poco porque esa segunda persona parece todavía más mentirosa que la primera.

Es decir, lo que necesitamos es una prueba de que la aritmética es consistente dentro de la misma aritmética. Desgraciadamente, esto es imposible. El segundo teorema de Gödel nos dice que cualquier sistema axiomático interesante sólo puede probar su propia consistencia si es en sí mismo inconsistente [Gödel1931].

No le queda a usted, querido lector, más remedio que reconocer que no está usted seguro de si la aritmética es consistente o no y, por tanto, no está usted seguro de que 2+3=5. No tiene usted evidencia de que 2+3=5 más allá del hecho de que usted piensa que 2+3=5, pensamiento que podría haber sido introducido en su cabeza por un demonio maligno. Como no puede descartar la hipótesis escéptica, no está usted seguro de que 2+3=5 y, por tanto, usted no está autorizado a decir que "sabe" que 2+3=5. Si ni siquiera tiene usted conocimiento de verdades matemáticas tan simples, las cosas que usted sabe son muy muy pocas. No es posible tener conocimiento más que en un tamaño ridículamente pequeño, ¿verdad?

Pues no. Claro que sabemos que 2+3=5. Claro que estamos seguros de que 2+3=5. De hecho estamos seguros de que la aritmética es consistente. Pero no porque podamos demostrarlo matemáticamente. El motivo por que el que no hay ningún matemático que piense que la aritmética es inconsistente es de la misma naturaleza que el motivo por el que los físicos de partículas están convencidos de que los electrones y los fotones interaccionan entre ellos de acuerdo a las leyes de la electrodinámica cuántica. Tenemos pruebas experimentales muy sólidas de que esto es así. Desde que éramos muy pequeños hemos sumado a 2 cosas 3 cosas, y hemos comprobado que el resultado es 5 cosas. Cientos de miles de matemáticos a lo largo de la historia han jugado con la aritmética probando teoremas dentro de ella e insertándola también en estructuras más ricas (y ahora también haciendo comprobaciones numéricas altamente no triviales con ordenadores) y lo que han encontrado es una estructura muy rica sin ningún tipo de señal de que haya alguna inconsistencia. No es cierto que la única evidencia que tenemos de que los teoremas de la aritmética son verdaderos es que creamos que son verdaderos. La aritmética, como el resto de las matemáticas, es una ciencia experimental, y tenemos evidencias experimentales muy fuertes a su favor. El lector interesado en el motivo por el que es artificial la frontera tradicional entre las proposiciones analíticas de las matemáticas y las sintéticas de la física, puede leer este artículo.

De nuevo, comprobamos que lo que nos permite desmontar el segundo argumento escéptico de Descartes es también el conjunto de evidencias experimentales que tenemos sobre el mundo. Para descartar las hipótesis escépticas vemos que lo único que tenemos que hacer es utilizar una de las armas más poderosas que ha creado el ser humano y que tenemos a nuestros disposición. Transformando un poco el eslogan de la campaña electoral de Bill Clinton de 1992, podemos decir que "es la física, estúpido".

El argumento del cerebro en un contenedor



La versión moderna del primer argumento escéptico de Descartes utiliza una hipótesis escéptica más sofisticada, pero que parece cumplir a la perfección con la intención de Descartes cuando propuso la hipótesis del sueño. Usted se cree que está mirando una pantalla en estos momentos, cuando en realidad lo que ocurre es que usted es un cerebro metido en un tarro al que alguien o algo está introduciendo experiencias sensoriales mediante señales eléctricas que estimulan sus neuronas. La pantalla que usted piensa que está mirando en realidad no existe. De hecho, ni siquiera su propio cuerpo existe. Los datos sobre el mismo los están también introduciendo en su cerebro.

Este argumento moderno parece que es capaz de escapar de las críticas que recibió el primer argumento escéptico de Descartes. Después de todo, ahora sí es verdad que ambas hipótesis, la del cerebro en un contenedor y la de que las cosas sí son lo que parecen, son de verdad compatibles con el hecho de que está usted recibiendo la experiencia sensorial de estar en este momento delante de una pantalla. El cerebro en un tarro está recibiendo exactamente las mismas experiencias que una persona de verdad.

Esta es precisamente la versión de la hipótesis escéptica con la que juegan las hermanas Wachowski en la película The Matrix. Cuando el protagonista, Neo, elige la pastilla roja, que es la que proporciona la dolorosa verdad, descubre que el mundo en el que creía vivir no es más que una simulación virtual a la que se encuentra conectado mediante un cable enchufado en su cerebro. Las miles de millones de personas que viven (conectadas) a su alrededor, están siendo cultivadas del mismo modo para poder dar energía a las máquinas. Esta ilusión colectiva (o simulación interactiva) es conocida como Matrix (la matriz).

Además de haberse convertido esta idea en un tema recurrente en ciencia ficción, algunos filósofos que estudian el transhumanismo se han tomado la hipótesis de la simulación muy en serio tras la publicación de un artículo del filósofo sueco de la Universidad de Oxford Nick Bostrom  [Bostrom2003]. En este artículo Bostrom argumenta que al menos uno de los siguientes enunciados tiene que ser verdadero:
  • La fracción de civilizaciones a un nivel humano que alcanzan un estadio posthumano es muy cercana a cero;
  • La fracción de civilizaciones posthumanas que se interesan en correr simulaciones sobre ancestros es muy cercana a cero;
  • La fracción de todas las personas con nuestro tipo de experiencias que se hallan viviendo en una simulación es muy cercana a uno.
Bostrom continúa usando un tipo de razonamiento antrópico para afirmar que si la proposición que es verdadera es la tercera y casi todas las personas con nuestro tipo de experiencias viven en simulaciones, entonces casi seguramente vivimos en una simulación. Nótese que este argumento va más allá de la antigua hipótesis escéptica clásica. Se trata más bien una hipótesis metafísica [Chalmers2003].

El argumento de la simulación de Bostrom está lleno de conceptos que no están bien definidos, como, por ejemplo, "la fracción de todas las personas con nuestro tipo de experiencias", que utiliza arbitrariamente para acabar afirmando algo tan serio como que tenemos evidencia empírica de que probablemente vivamos en una simulación. Por mucho que se empeñen Bostrom y los que le han comprado el argumento en vestir sus razonamientos de rigor científico, no existe ninguna ley que diga que la probabilidad de que un sujeto pertenezca a un subconjunto B del conjunto A sea igual al cociente del cardinal de B entre el cardinal de A. Si los cardinales son infinitos este cociente ni siquiera está bien definido. Pero, incluso aunque ese cociente sí esté bien definido matemáticamente, no hay ninguna razón para que esa probabilidad sea igual a ese cociente. Y, de hecho, en física en la mayoría de los casos no lo es. Sólo lo es cuando todos los elementos de A son igual de probables, y esto sólo ocurre cuando hay algún motivo físico para que lo sean. Por ejemplo, todos los microestados compatibles con un macroestado dado en un sistema en equilibrio térmico son igualmente probables en las condiciones en las que se cumple la hipótesis ergódica. Pero estas cosas sólo pasan en un número muy reducido de situaciones, y no hay ningún tipo de simetría ni principio democrático que equipare a las personas que desarrollan su actividad en universos reales con los que viven en universos simulados [Motl2013/03].

No tenemos ningún argumento serio ni ninguna evidencia empírica que apunte a que es probable que vivamos en una simulación. No merece la pena dedicar ni un párrafo más a semejante chorrada. La hipótesis de la simulación es interesante sólo como hipótesis escéptica, ya que, aunque no hay ninguna prueba empírica que apunte a que vivamos en Matrix, sí es cierto que el argumento de la simulación constituye una amenaza seria a la idea de que tenemos conocimiento de cosas mucho más allá del "Je pense, donc je suis". Si lo estructuramos en la forma "premisas => conclusión", el argumento escéptico queda así:

  • Premisa 1: Usted no sabe que es falso que viva en una simulación tipo Matrix (usted no puede descartar la posibilidad de que esté viviendo en Matrix).
  • Premisa 2: Usted sabe que si la pantalla que está mirando ahora mismo es real, entonces es falso que viva en una simulación tipo Matrix.
  • Premisa 3: Para cualquier par de proposiciones $a$ y $b$, si usted sabe que $a$, y si usted sabe que $a$ implica $b$, entonces usted sabe que $b$ (principio de cierre lógico del conocimiento). Nótese que este principio no es igual al modus ponens debido a la parte "usted sabe que".
  • Conclusión: Usted no sabe si la pantalla que está viendo es real.
El argumento es válido, pero la conclusión a la que se llega es tan disparatada (¿cómo no voy a saber que la pantalla que tengo delante es real?), que esto obligó al filósofo británico G. E. Moore a sugerir que alguna de las premisas tiene que ser falsa [Moore1939]. Esta es una de las posibilidades. La otra es, siguiendo el espíritu de Descartes, que este argumento nos está ayudando a descubrir algo (la conclusión) que creíamos que era falso, que nos está ayudando a descubrir que en realidad no sabemos casi nada.

Por ejemplo, para el filósofo norteamericano Robert Nozick la conclusión tenía que ser falsa, ya que podemos justificar el tener una tremenda confianza en que la pantalla que estamos mirando es real y, además, si esa pantalla no fuera real, entonces muy probablemente no tendríamos tanta confianza en que lo sea. Hay muchos casos en los que vemos una pantalla dentro de otra pantalla y sabemos que la pantalla de dentro no es real. La situación relevante más próxima sería uno de esos casos. Sin embargo, para Nozick sí que es verdadera la premisa 1, ya que, si viviéramos en Matrix, entonces aún así seguiríamos creyendo que no vivimos en Matrix. Como esa creencia no es sensible a la verdad, no podemos decir que sabemos que es falso que vivamos en Matrix. Como la premisa 2 también es verdadera, a Nozick no le quedó otra opción que rechazar la premisa 3, es decir, para él el conocimiento no cierra bajo una deducción conocida [Nozick1981].

Pero la propuesta de Nozick es absurda. Supongamos que gano una carrera y que usted es testigo de mi victoria. Usando el razonamiento de Nozick podríamos decir que usted sabe que yo gané la carrera, pero, el mismo tiempo, usted no sabe si alguien colocó una serie de espejos para crear la ilusión óptica de que gané la carrera. La diferencia está en que, mientras que si yo no hubiera ganado la carrera usted muy probablemente habría visto ganar a otro y, por tanto, no creería que yo gané, en el caso de que alguien hubiera colocado los espejos usted seguiría creyendo que yo gané. No es buena idea rechazar el principio de cierre lógico del conocimiento, ya que entonces estaríamos dejando de captar la esencia de lo que es conocer [Hare2013]. Tanto la premisa 3 como la 2 son claramente verdaderas.

Por ello, la pregunta que nos vamos a hacer aquí es si es falsa la premisa 1, es decir, si en este caso somos capaces, como en el caso del sueño, de descartar que vivamos en Matrix señalando aspectos de nuestra experiencia que sean incompatibles con vivir en una simulación informática. Ciertamente, esto nos va a costar más que decir simplemente que esa hipótesis escéptica queda descartada porque tenemos experiencias nítidas. ¿Nos permiten nuestros conocimientos actuales sobre física descartar la hipótesis de que vivimos en una simulación tipo Matrix?

Está claro que, si vivimos en una simulación informática, entonces las leyes de la física que describen esa simulación tienen que indicarnos que los ladrillos fundamentales del universo son discretos, como los bits sobre los que hemos construido los ordenadores. Esto es así porque los números reales no son computables. Así que la pregunta que nos hacemos ahora es si los constituyentes básicos del universo son continuos o discretos. ¿Es la física actual capaz de hacer como Neo y ver la verdadera naturaleza digital de los constituyentes de nuestro universo?
Digital rain animation medium letters shine

Ahora, querido lector, tiene usted que elegir entre la pastilla azul o la roja, al estilo de los libros de la colección "Elige tu propia aventura".

MORFEO.- Por desgracia no se puede explicar lo que es Matrix. Has de verla con tus propios ojos. Esta es tu última oportunidad. Después, ya no podrás echarte atrás. Si tomas la pastilla azul, fin de la historia. Despertarás en tu cama y creerás lo que quieras creerte. Si tomas la roja, te quedas en el País de las Maravillas y yo te enseñaré hasta dónde llega la madriguera de conejos. Recuerda, lo único que te ofrezco es la verdad. Nada más.

¿Nos permiten nuestros conocimientos actuales sobre física descartar la hipótesis de que vivimos en una simulación tipo Matrix? La respuesta que da la pastilla azul


Imagine un vaso de agua. El agua macroscópicamente parece un fluido continuo, pero en clase de Física y Química en el instituto aprendimos que, si hacemos zoom hasta el tamaño del nanómetro, nos daremos cuenta de que el agua está hecha de entes discretos denominados moléculas. Cada molécula de agua está formada por la unión covalente de un átomo de oxígeno y dos de hidrógeno. El resto de líquidos, los sólidos y los gases también están formados por átomos. Las leyes de la termodinámica, leyes continuas, se derivan de la física estadística en sistemas formados por muchos átomos cuando no tenemos resolución para descubrir la naturaleza discreta de la materia.

Además, la física cuántica nos ha enseñado que los niveles de energía que pueden tener estos átomos en su configuración interna no son continuos, sino discretos. Al pasar de unos niveles a otros, los átomos emiten o absorben fotones que se llevan o traen la energía involucrada en el proceso. No puede existir medio fotón, ni π fotones. El número de fotones posibles es un número natural. La luz está cuantizada.

Aunque la palabra "átomo" significa indivisible, hoy sabemos que los átomos están hechos de partículas elementales. Pero, hasta lo que sabemos, tanto los quarks que constituyen los protones, los neutrones y los demás hadrones, como los electrones y el resto de leptones, no tienen estructura interna. No hemos encontrado nada que nos indique que estas partículas, cuyo comportamiento tan bien describe el Modelo Estándar, sean compuestas de nada, y tampoco es posible tener medio electrón o π electrones.

En conclusión, aunque la física macroscópica parece continua y se describe con números reales, en cuanto nos vamos al mundo subatómico los números enteros aparecen por todas partes.

Es verdad que sabemos que el Modelo Estándar no es la descripción fundamental de la naturaleza, sino una teoría efectiva que, en buena aproximación, es válida a baja energía (con esto me refiero a energías no superiores a las que somos capaces de alcanzar en los aceleradores de partículas actuales). A energías mayores tiene que haber partículas y fenómenos nuevos. En particular, al llegar a la escala de Planck se tienen que notar los efectos cuánticos de la única interacción que no está incorporada en el Modelo Estándar, la interacción gravitatoria. Sabemos que la mejor teoría que tenemos hasta ahora para describir esta interacción, la relatividad general de Einstein, deja de tener validez a esa escala. Esto hace que exista una longitud, denominada longitud de Planck (en torno a diez elevado a -35 metros), por debajo de la cual el espaciotiempo deja de estar descrito por la geometría continua de la relatividad general. El espaciotiempo a esa escala podría ser discreto, siendo su continuidad una ilusión de las escalas macroscópicas con las que trabajamos, al igual que ocurría con el vaso de agua.

La hipótesis de la naturaleza finita es la suposición de que, a determinada escala, el espacio y el tiempo, que parecen continuos a las energías con las que trabajamos en los aceleradores, manifiestan una naturaleza discreta, y que el número de los posible estados en los que puede estar cualquier porción de volumen finito de nuestro universo es en realidad finito, aunque sea muy grande y nos parezca infinito [Fredkin1992].

¿Nos permiten nuestros conocimientos actuales sobre física descartar la hipótesis de que vivimos en una simulación tipo Matrix? La respuesta que da la pastilla roja


La respuesta que nos acaba de dar la pastilla azul es tan atractiva que muchos filósofos y divulgadores científicos ha rechazado la pastilla roja para profundizar más en este asunto. Este es el motivo por el que propuse, en la sección del Instituto Ouróboros en el programa de radio La Noche Paradigmática, que se hiciera un debate sobre si realmente podemos descartar la hipótesis escéptica de que vivimos en una simulación. Además del presentador, Rafael Macho (@RDMRBQ92), la co-presentadora, Teresa Camarena (@Teresita_21M), y el colaborador que dirige la sección, José María Martínez (@jmmjouroboros), fueron invitados al debate dos jóvenes promesas del mundo de la investigación científica, Álvaro Rodríguez (@alvarorgtr), como representante del mundo de la computación, y Jesús Bonilla (@BonillaGJesus), del mundo de la física de partículas, además de yo mismo. El debate se puede escuchar aquí, a partir del minuto 18:
— @noche_paradigmatica (@paradigmanoche) 30 de junio de 2019

Es una pena que, por falta de tiempo, Jose María, Álvaro y Jesús no hayan podido hacer una réplica a mis últimas declaraciones, así que aprovecho este artículo para desarrollarlas y dar la oportunidad a los demás de contestarme mediante la caja de comentarios de este blog.

Como mencioné en el debate, que el mundo sea cuántico no significa que todo sea discreto. Es verdad que el nombre de "mecánica cuántica" viene del hecho de que algunos observables en determinadas condiciones sólo pueden tomar valores discretos. Así, la energía de los estados ligados sólo puede tomar determinados valores discretos que se corresponden con los autovalores del hamiltoniano del sistema ligado. Por ejemplo, los posibles niveles de energía del átomo de hidrógeno sólo pueden tomar los valores
$$
E_n=-\frac{13,6 \text{ eV}}{n^2}
$$
donde $n$ es un número entero positivo. Sin embargo, si el sistema no es ligado (por ejemplo, si el electrón tiene energía suficiente para escapar de la atracción del protón), entonces el espectro de los posibles valores de la energía es continuo. En mecánica cuántica la posición de una partícula tampoco toma valores discretos, y la cantidad de movimiento en una dirección concreta sólo lo hace si compactificamos el espacio en esa dirección. Por ejemplo, si la partícula sólo puede vivir en la circunferencia que surge de identificar el punto x=0 con el punto x=L, para que la función de onda correspondiente al estado en el que la cantidad de movimiento toma un valor p,
$$
e^{\frac{i}{\hbar}px}
$$
esté bien definida en ese círculo, esa cantidad de movimiento sólo puede tomar los valores
$$
p=\frac{h}{L}n
$$
donde $n$ es aquí un número entero).

En mecánica cuántica cualquiera de las componentes, Lx, Ly o Lz, del momento angular orbital de una partícula sólo puede tomar valores que sean múltiplos de $\hbar$, que es la constante de Planck h dividida entre 2π, aunque es imposible que dos de ellas tomen valores bien definidos simultáneamente. Sin embargo, la acción de esa partícula, que posee las mismas unidades que el momento angular, no está cuantizada. Esta acción es un número real asociado a cada posible camino seguido por la partícula hasta llegar al detector y nos da, en unidades de $\hbar$, el valor de la fase (argumento) que tiene la amplitud de probabilidad asociada a ese camino, que es un número complejo. La amplitud de probabilidad de que la partícula llegue a ese detector se calcula sumando las amplitudes de probabilidad de cada camino. Según si son números complejos con el mismo argumento o no, esta suma, denominada suma de caminos de Feynman, dará lugar a interferencia constructiva (en cuyo caso la probabilidad de que la partícula llegue al detector es alta) o destructiva (lo que da probabilidad baja).


No sólo son continuos los caminos, también hay todo un intervalo continuo de posibilidades entre los casos extremos de interferencia constructiva o destructiva. En muchos casos, como en el experimento de difracción por una rendija, esta suma de caminos de Feynman nos da lugar a alternancia entre interferencia constructiva y destructiva (se obtiene básicamente la transformada de Fourier de la función rectangular), lo que nos permite etiquetar con números enteros todos los máximos. Se trata de un mecanismo maravilloso que hace surgir así números enteros a partir de una física que es continua a nivel fundamental.


Nótese que, para que puede observarse este patrón de difracción con sus máximos y mínimos, es necesario que el tamaño de la rendija no sea mucho más grande que la longitud de onda de de Broglie de la partícula. Esto es así porque la aproximación clásica, en la que la partícula ha seguido un único camino bien definido, deja de funcionar cuando las diferencias entre las acciones de los distintos caminos empiezan a hacerse comparables a $\hbar$, que es lo que ocurre cuando vamos haciendo el tamaño de la rendija más pequeño. Es ahí cuando empiezan a notarse el fenómeno cuántico de la interferencia entre caminos. Pero para que surja este fenómeno, la acción no necesita hacerse discreta y, de hecho, toma valores continuos, aunque distintos para cada camino.

El nombre de "mecánica cuántica" es, por tanto, engañoso en este sentido, ya que se trata de una teoría construida sobre números complejos, cantidades continuas, en la que los valores discretos surgen como soluciones de las ecuaciones en algunas ocasiones. En mecánica cuántica los números enteros no son fundamentales, son emergentes. Surgen siempre que hacemos la transformada de Fourier de algo compacto [Tong2011].

¿Puede entonces el comportamiento cuántico del universo, basado en la suma de caminos de Feynman, ser simulado por un ordenador? Está claro que no. Los resultados que obtenemos al medir los observables mecanocuánticos son extremadamente sensibles a las interferencias constructivas y destructivas entre un número infinito de amplitudes, cada una de ellas asociada a un camino. Simular esto con un ordenador clásico requiere una precisión irrealizable, y cualquier técnica que queramos utilizar de compresión va a tener como consecuencia la pérdida de los efectos cuánticos observados.

Otro concepto fundamental en mecánica cuántica es el de función de onda. Ésta no es más que una función que asocia, a cada posible resultado de la medición, la amplitud de probabilidad que hemos calculado con la suma de caminos de Feynman. Es verdad que se pueden hacer simulaciones de la función de onda y su evolución con un ordenador clásico, pero estas simulaciones no son lo mismo que la función de onda, ya que la función de onda no es una onda clásica. Estas simulaciones por ordenador tratan a la función de onda como si fuera una onda clásica con existencia objetiva, pero no lo es. Este es el motivo por el que dos funciones de onda muy parecidas son indistinguibles físicamente (lo que da lugar al efecto Zenón cuántico), mientras que dos ondas clásicas muy parecidas sí son distinguibles. Los valores que toma la función de onda son amplitudes de probabilidad de los distintos resultados, algo que depende del dispositivo experimental elegido y del observador. No se puede hacer una simulación clásica de todo el universo.

Además, cualquier intento parcial de realizar esa simulación clásica necesitaría reproducir las correlaciones que se ha comprobado experimentalmente que se dan entre partículas entrelazadas. Se trata de correlaciones altamente no triviales como, por ejemplo, la violación de las desigualdades de Bell. Esto sólo puede hacerse clásicamente violando el principio de localidad de la relatividad especial. En cambio, la mecánica cuantica sí da lugar a estas correlaciones sin violar el principio de localidad porque es no realista.

Así que, si el comportamiento cuántico del universo que estamos observando es simulado, esta simulación sólo es posible en un ordenador cuántico. Este ordenador cuántico puede trabajar con bits cuánticos (qubits, base 2), con qutrits (base 3), con qudits (base 10) o con cualquier otra unidad de información cuántica. Sin embargo, no tenemos ninguna indicación que apunte a que la información del universo observable esté estructurada de esta manera. Por ejemplo, si lo estuviera en qubits, entonces el espacio vectorial de todos los posibles estados cuánticos debería tener dimensión potencia de 2. De hecho, lo que sabemos es que ni siquiera es este espacio vectorial de dimensión finita. Por ejemplo, incluso aunque compactifiquemos el eje x, hemos visto que los posibles valores que puede tomar la cantidad de movimiento de una partícula que se mueve en esa dirección, aunque discretos, son infinitos. El espacio vectorial de todos los estados ligados posibles del electrón en el átomo de hidrógeno es también de dimensión finita, aunque numerable. Y si encima consideramos estados en los que electrón no está ligado al protón, entonces es de dimensión infinita no numerable.

Es verdad que en ocasiones podemos simular algunos fenómenos que ocurren en los sistemas cuánticos usando espacios vectoriales de estados de dimensión finita, ya que muchos de estos estados cuánticos tienen una contribución despreciable a la entropía del sistema. Por ejemplo, en equilibro térmico el factor de Boltzmann penaliza a los microestados de mayor energía, lo que implica que sean muy poco probables haciendo que la entropía sea finita. Pero no es posible describir con un espacio vectorial de dimensión finita de forma realista todos los sistemas cuánticos que nos rodean en el universo, sino sólo aspectos concretos del mismo de interés para la física aplicada. Estos espacios de dimensión finita no nos sirven para entender la física a nivel fundamental.

En cuanto al argumento de que los constituyentes fundamentales de la naturaleza son partículas, entes discretos, de nuevo surge de la confusión de utilizar un nombre inapropiado. El concepto fundamental en física de partículas no es el de partícula, sino el de campo cuántico. Los campos cuánticos son entes continuos que cubren todo el espaciotiempo. Por ejemplo, los electrones no son más que las excitaciones discretas de un campo "electrónico", los fotones del campo electromágnético, los quarks up son excitaciones de otro campo, etc. Al tratarse de vibraciones ligadas de los campos, éstas son discretas, por el mismo mecanismo por el que emerge la discretitud que hemos explicado antes. Es decir, el concepto de partícula es un concepto emergente. De hecho, en un estado genérico de estos campos ni siquiera el número de partículas, que es un observable mecanocuántico, toma un valor bien definido. Todo sistema físico puede estar, y de hecho de forma genérica está, en un estado cuántico que es superposición de estados que tienen distinto número de electrones. Es decir, las partículas discretas no son más que la manifestación de un espectro discreto de un observable definido de forma continua en mecánica cuántica.

Alguien podría decir "Sí, claro, pero aunque que el número de electrones sea discreto es un fenómeno emergente de la mecánica cuántica, que es continua, es un hecho que el número de tipos de partículas que hay en la naturaleza es discreto". En efecto, el modelo estándar de la física de partículas contiene 6 leptones, 6 quarks, los bosones que median las interacciones gauge y el bosón de Higgs. A energías más altas esperamos encontrar más tipos nuevos de partículas, pero, aunque sean infinitas, el número seguirá siendo infinito numerable. Lo que a lo mejor muchos no saben es que esto es una predicción de la teoría de cuerdas que surge precisamente al llevar a cabo la cuantización de la cuerda. Cada tipo de partícula no es más que un modo distinto de vibración de la cuerda y el mismo mecanismo que genera discretitud en el ejemplo citado anteriormente de difracción por una rendija es el que hace que los distintos tipos de particula en los que se puede comportar la cuerda sean discretos. Hasta el hecho de que en la naturaleza hayamos encontrado un número discreto de tipos de particulas es una consecuencia de hacer la transformada de Fourier de algo compacto.

Tiene razón Jesús Bonilla en su intervención en el podcast de que hay que ir al nivel más fundamental posible. Y cada vez que profundizamos más en entender la naturaleza en este sentido, lo que ocurre es que los objetos fundamentales con los que trabaja la física cada vez se vuelven más continuos y geométricos. La física sólo es discreta cuando la describimos de manera superficial, que es lo que se hace las clases de enseñanza secundaria (ESO y Bachillerato).

Otro aspecto importante que hay que señalar es que el hecho de que en la naturaleza exista la escala de Planck no significa que el espacio-tiempo tenga que ser discreto. Para ello es necesario comprender de dónde viene la escala de Planck, y para eso vamos a dedicar un un par de párrafos.

En teoría cuántica de campos locales, por ejemplo, en el caso más simple, el campo de Klein Gordon, la amplitud de probabilidad de que una partícula de masa $m$ se propague, desde un suceso de espaciotiempo  hasta otro desconectado causalmente del primero, decrece a grandes distancias como la exponencial decreciente
$$
e^{-mcr/\hbar}
$$
donde $r$ es la distancia entre ambos sucesos en el sistema de referencia en el que ambos ocurren simultáneamente. Esta amplitud de propagación no es cero, pero esto no supone una violación del principio de velocidad máxima de propagación de las interacciones, ya que se puede demostrar que una medición llevada a cabo en el primer suceso espaciotemporal no afecta a una segunda medición llevada a cabo en el segundo suceso. Lo que esta exponencial decreciente nos está diciendo es que existe una correlación entre esos dos puntos separados una distancia $r$, correlación que sólo se hace despreciable si esa distancia $r$ es muy superior a
$$
\lambda = \frac{\hbar}{mc}
$$
Es decir, las partículas sólo se pueden considerar como entes localizados en un punto concreto del espacio si nuestros detectores no son capaces de detectar variaciones espaciales de tamaño del orden de magnitud de $\lambda$. Este es el motivo por el que a $\lambda$ se la denomina el "tamaño cuántico de la partícula". Nótese que cuanto mayor sea la masa de una partícula, menor es su tamaño cuántico. También es importante señalar que lo que tenemos aquí es una exponencial decreciente, no una función que abruptamente pasa a valer cero a partir de un valor concreto $\lambda$.

Por otro lado, de la relatividad general sabemos que si conseguimos contraer, sin que cambie su masa, un objeto hasta un tamaño inferior al radio de Schwarzschild
$$
R_S=\frac{2GM}{c^2}
$$
entonces ese objeto se convierte en un agujero negro. Por eso al radio de Schwarzschild se le llama también el "tamaño gravitacional del objeto". Este tamaño gravitacional es proporcional a la masa del objeto. Imaginemos ahora que queremos crear un agujero negro de tamaño $10^{-40}$ metros. Si hacemos la cuenta, necesitamos coger una masa de unos $10^{14}$ veces la masa del protón y comprimirla hasta los $10^{-40}$ metros de radio. Pero por culpa de los efectos cuánticos no podemos hacer esto. Llegaría un momento en el que el tamaño de esa masa se haría más pequeño que el tamaño cuántico $\lambda$ asociado a esa masa. Por debajo de ese tamaño las partículas no están localizadas. Eso significa que el agujero negro más pequeño que podemos tener es el que tiene una masa que hace igual en orden de magnitud a su tamaño gravitacional y a su tamaño cuántico. Si igualamos $R_S=\lambda$, se obtiene que esa masa, denominada masa de Planck, debe ser de unas $10^{19}$ veces la masa del protón, y su tamaño, denominado longitud de Planck, de unos $10^{-35}$ metros. Por debajo de la masa de Planck las correcciones cuánticas afectan a un tamaño superior al radio de Schwarzschild, de tal forma que ya no podemos asegurar que lo que tenemos es un agujero negro porque la relatividad general deja de ser válida a esas distancias. A su vez, si queremos explorar distancias cada vez más pequeñas, necesitaríamos utilizar partículas elementales cada vez más localizadas, es decir, partículas elementales con cada vez más masa. Pero al superar la masa de Planck, que nos daría un tamaño cuántico inferior a la longitud de Planck, la partícula se convertiría en un agujero negro, su radio de Schwarzschild empezaría a crecer y ya no nos sería posible explorar esas distancias tan pequeñas. Es importante señalar que nos estamos refiriendo aquí a distancias propias, que son invariantes relativistas. Aunque en el sistema de referencia en el que dos sucesos ocurren simultáneamente la distancia entre ellos sea de tamaño superior a la longitud de Planck, en otro sistema de referencia esa distancia será menor, y puede perfectamente ser inferior a la longitud de Planck.

Una vez que tenemos claro qué es la longitud de Planck, podemos entender que el valor concreto de $10^{-35}$ metros es tan importante como cualquiera de las demás distancias del mismo orden de magnitud. No hay ningún cambio abrupto en ese valor concreto. A distancias propias de ese orden de magnitud la geometría clásica que describe la relatividad general deja de funcionar, pero eso no significa que las distancias se vuelvan discretas. El operador posición no tiene por qué pasar a tener un espectro discreto. De hecho, en el único marco consistente que tenemos ahora mismo para describir la naturaleza a esas distancias, la teoría de cuerdas, el espaciotiempo no se hace discreto a la escala de Planck. Lo que ocurre es que no es posible explorar esas distancias tan pequeñas porque no hay ningún objeto en la teoría (por ejemplo, partículas puntuales) capaces de explorarlas [Motl2009/09]. Esto hace que los intervalos, las superficies y los volúmenes no se puedan localizar a escala planckiana. Por ejemplo, en la compactificación del eje x que hemos mencionado antes cuanto más pequeña sea la longitud L del círculo mayor es la cantidad de movimiento de las cuerdas con $n$ no nulo (que viajan en esa dirección) y, por tanto, mayor es su energía. Pero entonces se hace menor la energía de las cuerdas enrolladas en ese círculo al estar menos "tensas", y se puede demostrar que esos modos de cuerdas enrolladas acaban jugando el mismo papel que jugaban las cuerdas que tenían cantidad de movimiento en esa dirección cuando $L$ era grande. Hay una dualidad entre ambas descripciones (denominada T-dualidad) que hace que los tamaños $L$ pequeños comparados con la longitud de Planck ni siquiera tengan significado físico, al ser duales con otros más grandes. Ambas situaciones describen la misma física.

Además de ser inconsistentes, otro problema que tienen los intentos de descripción del universo a la escala de Planck "alternativos" a la teoría de cuerdas mediante la introducción de discretitud en el espaciotiempo es que en ellos la simetría de Lorentz está rota, es decir, no son válidos los postulados de la relatividad especial a esa escala. De la misma manera que al discretizar el espacio estamos rompiendo la simetría de rotación, al discretizar el espaciotiempo rompemos la simetría de rotaciones hiperbólicas (transformaciones de Lorentz), que es la que garantiza que se cumpla el principio de relatividad y el de localidad. Esto es algo que se hace en las simulaciones de la teoría cuántica de campos en el retículo, y no supone ningún problema siempre que estudiemos fenómenos cuyas distancias características sean muy superiores al tamaño del retículo con el que discretizamos el espaciotiempo. Sin embargo, este tipo de modelos tienen dos dificultades. La primera podría ser salvable, pero la segunda no lo es:
  • sólo hay un tipo de teorías cuánticas de campos efectivas a baja energía que no sabemos como simular correctamente en el retículo. Se trata de las teorías quirales, que en el retículo adolecen del problema de la duplicidad de fermiones. Y precisamente el Modelo Estándar es quiral, ya que sólo los fermiones "zurdos" experimentan la interacción débil. El hecho de que nadie sepa como formular una versión discreta del Modelo Estándar significa que nadie sabe cómo formular una versión discreta de las leyes de la física. Merece la pena considerar la posibilidad de que las dificultades que nos estamos encontrando para poner fermiones quirales en el retículo nos estén dando el importante mensaje de que las leyes de la física no son, en el nivel más fundamental, discretas [Tong2011].
  • si el espaciotiempo fuera discreto a la escala de Planck, esa violación de las leyes de la relatividad debería notarse en que la velocidad de las partículas sin masa, por ejemplo los fotones, no sería exactamente c, como sí ocurre si la relatividad es exacta. Esa velocidad dependería de la energía de esas partículas, de tal manera que dos fotones de distinta energía emitidos a la vez en un mismo evento astrofísico lejano no llegarían a la vez a la Tierra. Aunque se trate de una violación de las leyes de la relatividad sólo a la escala de Planck y, por tanto, dé lugar a una variación pequeña en las velocidades de fotones de energías que varían en decenas de GeV, al acumularse sobre distancias cosmológicas ese efecto se debería notar en los brotes de rayos gamma que detectan nuestros telescopios. Y la realidad es que eso no ocurre. No se ha encontrado ninguna señal de que se viole la invariancia de Lorentz a escalas del orden de magnitud de la de Planck. De hecho, lo que se tiene es lo contrario: a la escala de Planck la invariancia de Lorentz no se viola [Abdo2009, Stecker2011], lo que nos permite descartar cualquier teoría en la que el espaciotiempo deje de ser continuo a la escala de Planck [Motl2009/08].
Como el espaciotiempo no es discreto, ni siquiera a la escala de Planck, el espacio de Hilbert de todos los estados cuánticos del universo no sólo no puede tener dimensión finita, sino que tampoco esta dimensión puede ser infinita numerable. Esto implica que es imposible que toda la física que observamos sea fruto de una simulación informática.

Sorprende entonces que el "divulgador científico" Javier Santaolalla, en un vídeo titulado "¿Cómo sabemos si vivimos en una simulación?", que tiene en estos momentos casi medio millón de visitas en Youtube, afirme que "Las leyes de la física podrían ser fácilmente programadas en un ordenador. Desde la llegada de la cuántica hemos abandonado un universo de naturaleza continua, que muestra un comportamiento discreto para cosas como la energía, pero también posiblemente para el espacio y el tiempo. Vivimos en un mundo discreto, con valores discontinuos para las magnitudes, tal y como lo haría un programa informático". Lo extraño aquí no es que Javier Santaollana no entienda la mecánica cuántica. La mayoría de la población mundial no la entiende porque nunca la ha estudiado, y no pasa nada. Lo que no me cabe en la cabeza es que tenga la cara dura de hacer vídeos sobre mecánica cuántica y colgarlos en Youtube sin antes preguntar a un experto. Y del hecho de estar ganando dinero por crear material erróneo sobre física, que para la único que sirve es para confundir a los estudiantes, mejor no pongo adjetivos.

¿Cómo puede la física estar basada en números que no son computables?


Alguien podría argumentar que aunque la física a nivel teórico esté basada en números reales y complejos, que no son computables, en realidad
  • (objeción 1) todas las mediciones que se realizan dan como resultado un número discreto, ya que éste tiene necesariamente que ser múltiplo de la sensibilidad del aparato.
  • (objeción 2) existe la posibilidad de que todo lo que pueden hacer en realidad tanto los físicos como los matemáticos en sus cálculos y en las demostraciones de sus teoremas es trabajar con números computables. Si esto es así, nos creemos que estamos trabajando con el continuo, pero en realidad lo que estamos haciendo es trabajar con secuencias finitas de símbolos que se refieren al continuo [Aaronson2013].
Sin embargo,
  • (respuesta a la objeción 1) Una cosa son los datos experimentales, que son discretos, y otra bien distinta las teorías científicas. Los primeros no son anteriores a las segundas. No hay experimento sin teoría previa, que es la que da significado a esos datos. En función de los resultados de los experimentos, que pueden confirmar o refutar lo que se esperaba, los científicos van cambiando esas teorías, que forman un edificio de conocimientos que es como un campo, sólo con la restricción que impone la consistencia matemática y las condiciones de frontera que fijan los resultados experimentales. Esa estructura está basada en primeros principios, que pueden estar bastante alejados de esa frontera. De hecho, no es necesario que todo en una teoría tenga que ser medible o estar directamente conectado con la experiencia. Los científicos no trabajan así.
  • (respuesta a la objeción 2) Es verdad que en realidad lo que hacemos los físicos y los matemáticos es trabajar con secuencias finitas de símbolos que se refieren al continuo. Incluso cuando hablamos sobre intervalos de números reales, que contienen un número infinito no numerable de números reales, no tenemos más remedio que especificar los extremos del mismo mediante una secuencia finita de símbolos. Este es el motivo por el que, en realidad, los números reales que están bien definidos forman un conjunto numerable, y esto hace que el hecho de que los números reales sean no numerables sea considerado por los físicos más una "curiosidad lingüística" que algo relevante para entender el universo. Pero no poder hablar más que de secuencias finitas de símbolos no implica que la matemática discreta tenga que ser la base de la física. Sigue siendo importante qué estamos diciendo en concreto sobre esas secuencias finitas de símbolos. Y cuando hacemos física organizamos esas secuencias discretas de tal manera que se refieran a propiedades de objetos continuos, que, como hemos visto, son los fundamentales en física. Es decir, aunque es verdad que todos los lenguajes, humanos y de computadoras, utilizan símbolos discretos, la naturaleza está fundamentalmente basada en primeros principios que son continuos. La física teórica no se puede reducir a cantidades computables, ya que en ella es fundamental el significado de lo que se está diciendo [Motl2013/04].

¿Y si el conocimiento colectivo que tenemos de las leyes de la física no es tal, sino que nos lo han implementado en nuestro cerebro?


Como señala Jesús Bonilla en el podcast, una cosa es discutir si tenemos herramientas que nos permitan descartar que todo el universo observable es fruto de una simulación (y hemos visto que sí las tenemos), y otra distinta es discutir, en el caso de que seamos cerebros en un contenedor, si podemos ser capaces de darnos cuenta de que lo que nos llega es sólo información que nada tiene que ver con la realidad. En este segundo caso, que es como se planteó el debate, como explica José María Martínez, una persona que siempre haya vivido en Matrix nunca va a tener los elementos para comparar con la realidad, con lo que ni siquiera es necesario que la simulación sea muy realista.

Es cierto, como señala Álvaro Rodríguez en el podscast, que con una enorme capacidad de cómputo se podría engañar a un cerebro para que pensara que el universo simulado es la realidad. Aunque es necesaria una enorme capacidad de cómputo, no es necesario simular todo el universo, sino sólo aquellas partes con las que ese sujeto está interaccionando, al igual que los videojuegos no procesan aquellos elementos que el jugador no tiene delante.

Está claro que usted, querido lector, no ha realizado personalmente todos los experimentos que dan soporte confirmatorio a las teorías físicas actuales. Además, incluso aunque usted sea un experto en física de altas energías, usted no domina ni toda la física ni todas las matemáticas. Gran parte de las cosas que usted cree se basan en la confianza en muchas figuras de autoridad. Por ejemplo, a no ser que usted sea uno de los matemáticos que se ha estudiado en detalle la demostración de Andrew Willes del último teorema de Fermat, su confianza en el mismo se basa, no sólo en que la aritmética sea consistente, sino también en que estos matemáticos son personas reales y buenos profesionales que le están diciendo la verdad. Pero podrían ser elementos de la simulación. Es más, como señaló el científico y filósofo hungaro-británico Michael Polanyi, la mayor parte de nuestro conocimiento, incluso aunque seamos expertos, es tácito, es decir,  ha sido adquirido implícitamente y de forma no sistematizada [Polanyi1958]. Descartes tenía razón en que, por muy sistemático y crítico que sea usted, no está a salvo de los engaños del demonio maligno. Desde este punto de vista no nos sirve de nada el haber analizado las leyes de la física para ver si son discretas o continuas. El filósofo australiano David Chalmers ha sintetizado esta idea con la frase "Nunca vamos a poder conseguir una prueba definitiva de que no vivimos en una simulación porque cualquier prueba de esas características podría ser simulada" [Chalmers2016].

No podemos, por tanto, descartar la premisa 1, y volvemos al punto de partida. El argumento escéptico nos lleva a una conclusión absurda. ¿Cómo no vamos a saber que la pantalla que tenemos delante es real? Tiene que haber algo mal en las premisas, pero no encontramos qué está mal.

No tan deprisa. Si Descartes se levantara de su tumba y tuviera la oportunidad de contestar a Moore, seguramente explicaría que la conclusión de su argumento escéptico no es absurda, porque la conclusión no es que la pantalla que usted está viendo no sea real. La conclusión es que usted no sabe que es real. Aunque la pantalla sea real, eso no significa que al menos una de las premisas sea falsa. Lo que estamos haciendo aquí es tratar de entender qué es el conocimiento, y lo que el argumento escéptico nos está diciendo es que adquirir nuevo conocimiento es un proceso muy difícil. En un artículo anterior hemos visto cuales son las condiciones que se tienen que satisfacer, como mínimo, para poder decir que sabemos algo:
  • 1- Que estemos convencidos de que ese algo es verdad.
  • 2- Que, en efecto, ese algo sea verdad.
  • 3- Que nuestro convencimiento de que ese algo es verdad tenga una justificación racional.
  • 4- Que no hayamos llegado a esa conclusión partiendo de una creencia falsa.
  • 5- El hecho de que estamos seguros de eso es sensible a la verdad en el sentido de que, si no se hubiera dado el caso de que ese algo fuera verdad, no pensaríamos que es verdad.
  • 6- Nuestras predicciones sobre ese asunto son, en su mayor parte, acertadas.
  • 7- El método utilizado con el que hemos llegado a esa conclusión ha de ser fiable.
Y hemos visto que muchas de estas condiciones son muy difíciles de conseguir. Lo que hemos descubierto aquí es que incluso la primera condición (que estemos convencidos de que es verdad) es muy difícil de conseguir. Por tanto, es bastante más razonable, al contrario que lo que propuso Moore, considerar al argumento escéptico como una prueba de que la conclusión no es tan absurda como a primera vista podría parecer. Precisamente el objetivo de este tipo de argumentos es llegar a conclusiones que, de otra manera, nadie habría aceptado, y no es buena idea verlos siempre como una prueba de que alguna de las premisas tiene que ser incorrecta sólo por el hecho de que la conclusión es sorprendente. Por ejemplo, los experimentos mentales de difracción de electrones nos llevan a la conclusión aparentemente absurda de que los electrones no siguen, en su movimiento, una trayectoria bien definida. Sin embargo, una vez que el estudiante se ha familiarizado con la mecánica cuántica, esta conclusión es algo que le parece completamente natural. En algunas ocasiones, como es el caso del experimento de la doble rendija, o como es este caso, los argumentos nos sirven para descubrir algo sorprendente. Tenemos que aceptar que la conclusión del argumento escéptico es verdadera porque tenemos más confianza en que las premisas son verdaderas que en que la conclusión es falsa. Si la conclusión de Descartes hubiera sido que la pantalla que está usted mirando no es real, no podría aceptarla. Pero la conclusión del argumento de Descartes es que usted no sabe si la pantalla que está mirando es real. Usted no está legitimado a decir que sabe eso, porque no puede decir que esté seguro de eso. Y esa conclusión sí es aceptable. Teniendo en cuenta lo difícil que es cumplir las condiciones necesarias para poder decir que sabemos algo, no es tan extraño que hayamos concluido que no tenemos en realidad apenas conocimiento de nada [Hare2013].

Conclusión


Vamos a tener que darle la razón a Descartes. En estricto rigor, no sabemos apenas nada sobre el mundo. Pero hemos visto que esta conclusión es menos impactante de lo que parecía al principio. Aunque este asunto preocupó bastante a Descartes, hasta el punto de que tratar de resolver este problema condicionó completamente toda su filosofía, es perfectamente natural asumir que el conocimiento, en rigor, es algo muy difícil de poseer.

Pero esto no significa que el conocimiento sea un ideal irrealizable e inútil. Podemos y debemos entender las 7 condiciones necesarias del conocimiento como requisitos, no para poder decir que poseemos conocimiento de algo, sino para averiguar si ese conocimiento es de calidad, ya que estas condiciones poseen distintos grados de cumplimiento. Este es el motivo por el que el conocimiento científico bien establecido es riguroso, a pesar del argumento escéptico de Descartes. La diferencia entre el conocimiento científico y otros cuerpos de creencias menos fiables muchas veces no es de naturaleza, sino de grado. Y en este sentido sí podemos decir que confiamos en nuestros conocimientos de física mejor establecidos, conocimientos que sí nos permiten descartar que vivamos en una simulación informática, ya que las leyes y principios que gobiernan el comportamiento del universo son de naturaleza continua, no discreta. De acuerdo con estos principio, la presencia de algunas estructuras discretas en la naturaleza es, en todos los casos, o bien una ilusión, o bien un fenómeno emergente. No hay rastro de ninguna realidad digital subyacente. No existen los bits fundamentales.

Esta imagen es un trozo de la obra Landscape Painting (2021) de Julius von Bismarck. El artista pintó una cantera de Lanzarote, primero de blanco y, después, dibujó, línea a línea, la morfología de las
rocas y del suelo, variando el grosor del trazo, su dirección y sus intersecciones. Simulado las tramas que se utilizan habitualmente para definir los volúmenes y sus sombras, esas líneas oscuras generan un engaño visual que nos hace creer que nos encontramos ante un grabado, cuando realmente lo que estamos viendo es la fotografía de esa cantera. Von Bismarck creó así un trampantojo inverso en el que, en lugar de generar una ilusión de realidad a través de una imagen, se genera una ilusión de ilusión de realidad.

Hemos visto que la mecánica cuántica nos genera un trampantojo inverso similar, ya que, mediante el mecanismo de las interferencias y a partir de sistemas físicos continuos, genera autovalores discretos, cuantizados, provocando al ser humano la ilusión de que el mundo que percibimos es una especie de simulación informática de la realidad, cuando se trata de la realidad misma.

Esta conclusión no debería sorprender a nadie con conocimientos de física. En un universo simulado la programadora tiene bastante libertad para establecer las reglas que le dé la gana. Sin embargo, los principios fundamentales, tanto de la mecánica cuántica como de la relatividad especial, son bastante restrictivos (por ejemplo, en el nivel mínimo de energía en el átomo de hidrógeno el electrón no pude estar localizado, la simetría de Lorentz no puede estar rota y el tiempo propio entre dos sucesos siempre tiene que ser el más pequeño de todos). Y además, estos principios son todavía más restrictivos cuando los combinamos en la teoría cuántica de campos (por ejemplo, a cada partícula le tiene que corresponder una antipartícula). Si, además, queremos introducir la interacción gravitatoria de forma consistente, aparecen una serie de restricciones todavía mayores que automáticamente expulsan del mercado a la mayoría de teorías cuánticas de campos efectivas a baja energía (por ejemplo, no puede haber simetrías globales que no estén ni rotas ni gaugeadas) [Brennan2017]. La arbitrariedad de un programa informático no casa bien con la potencia que ha demostrado tener la estrategia de estructurar el pensamiento filosófico y científico en base a primeros principios desde la época de los filósofos presocráticos. Un conjunto de elementos discretos que interaccionan entre ellos de forma discreta no puede satisfacer estos principio, ya que en él hay demasiadas reglas posibles que se pueden establecer. Esto haría que la física a nivel fundamental estuviera al margen de estos principios, y sería necesario un número infinito de milagros para que una teoría arbitraria de este tipo, programada a escala mucho más alta que la escala de Planck, diera como resultado que todos estos principios se cumpliesen a baja energía. Con teorías basadas en objetos continuos que están restringidos mediante principios continuos, en cambio, ocurre todo lo contrario. El número de posibilidades se reduce tanto que es hasta posible que sólo haya una solución [Motl2011].

Por tanto, el argumento escéptico de Descartes, ni siquiera en su versión sofísticada del cerebro en un contenedor conectado a una simulación informática, consigue suponer un problema epistemológico de envergadura. No merece la pena dedicar más líneas a este asunto. Sin embargo, un tipo de escepticismo más peligroso para nuestra confianza incluso en el conocimiento científico mejor establecido es el que afirma, no que no tengamos conocimiento del universo, sino ni siquiera tenemos sólidos cimientos sobre los que establecer nuestra confianza en lo que ocurre en el mundo. Pero este es otro tema, que tratamos en otro artículo.


Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

Referencias bibliográficas

  • Aaronson, Scott (2013) "Gödel, Turing and friends" in Quantum Computing Since Democritus. Cambridge University Press. ISBN-13: 978-052178649.
  • Abdo A. A., Ackermann M., Ziegler M. (2009). "A limit on the variation of the speed of light arising from quantum gravity effects". Nature volume 462, pages 331–334 (19 November 2009).
  • Brennan, T. Daniel; Carta, Federico; Vafa, Cumrun. (2017) 'The String Landscape, the Swampland, and the Missing Corner'. eprint arXiv:1711.00864
  • Bostrom N. (2003). "Are you living in a quantum computer simulation?". Philosophical Quarterly (2003) Vol. 53, No. 211, pp. 243‐255.
  • Chalmers D. J. (2003). "The Matrix as Metaphysics". Dept of Philosophy, U. of Arizona; paper written for the philosophy section of The Matrix website.
  • Chalmers (2016) "We're not going to get conclusive proof that we're not in a simulation, because any proof would be simulated," In Isaac Asimov Memorial Debate: Is the universe a simulation? https://www.ivoox.com/2016-isaac-asimov-memorial-debate-is-the-universe-audios-mp3_rf_11124702_1.html
  • Descartes, René (2003) [1637]: Discurso del método; estudio preliminar, traducción y notas de Bello Reguera, E.; ed. Tecnos, Madrid, 2003.
  • Descartes, René (2011) [1641, 1647]. Méditations sur la philosophie premièreÉdition électronique, v.: 1,0 : Les Échos du Maquis.
  • Fredkin (1992) "Finite Nature". Progress in atomic physics, neutrinos and gravitation. Proceedings, 27th Rencontres de Moriond, 12th Moriond Workshop, Les Arcs, France, January 25 - February 1, 1992.
  • Gödel, K. (1992) [1931] On Formally Undecidable Propositions of Principia Mathematica and Related Systems. New York: Dover, 1992.
  • Hare C. (2013), "Skepticism about knowledge", in 24.00x Introduction to Philosophy: God, Knowledge, and Consciousness, MITx.
  • Moore, G. E. (1939). “Proof of an External World.” Proceedings of the British Academy, 25, 273-300.
  • Motl, Lubos (2009/08). "Fermi kills all Lorentz-violating theories". TRF.
  • Motl, Lubos (2009/09). "Myths about the minimal length". TRF.
  • Motl, Lubos (2011). "Rebooting the cosmos?". TRF.
  • Motl, Lubos (2013/03). "We don't live in a simulation". TRF.
  • Motl, Lubos (2013/04). "Scott Aaronson: a prototype of some confusion of IT scientists about physics". TRF.
  • Nozick, R. (1981). Philosophical Explanations. Oxford University Press.
  • Polanyi, M. 2012 [1958]. Personal Knowledge: Towards a Post-Critical Philosophy. University of Chicago Press. 
  • Stecker F. W. (2011) "A New Limit on Planck Scale Lorentz Violation from Gamma-ray Burst Polarization,'' Astropart. Phys.  35 (2011) 95. doi:10.1016/j.astropartphys.2011.06.007 [arXiv:1102.2784 [astro-ph.HE]].
  • Tong D. (2011) "Physics and the Integers". FQXi Essay Contest 2011: Is Reality Digital or Analog?