CYPHER.- Te gusta ¿verdad? Te gusta observarlo.
TRINITY.- No seas ridículo.
CYPHER.- Lo vamos a matar ¿Lo has entendido?
TRINITY.- Morfeo cree que él es El Elegido.
CYPHER.- ¿Lo crees tú?
TRINITY.- No importa lo que yo crea.
CYPHER.- No lo crees ¿Verdad?
TRINITY.- ¿Estas seguro de que esta línea está protegida?
CYPHER.- Sí, por supuesto.
TRINITY.- Me tengo que ir.
A pesar de lo que le están diciendo, la preocupación de Trinity es razonable. Podría ocurrir que haya un agujero de seguridad que hubiera permitido al otro bando pinchar la línea. Si fuera así, el enunciado "esta línea está protegida" sería falso. Llamemos a esta hipótesis, la hipótesis escéptica. Es decir, la hipótesis escéptica dice que es falso que la línea esté protegida, aunque Cypher nos diga que sí lo está. Como Trinity no es capaz de descartar la hipótesis escéptica, no podemos decir que tenga conocimiento de que la línea está protegida. Incluso aunque Trinity haya apostado por que sí lo está, y resulte ser cierto que lo está, no podemos decir que "sabe que lo está". Ya hemos visto en un artículo anterior que para saber algo, no sólo basta con que sea verdad. Son necesarias muchas más condiciones y la primera de ellas es que estemos convencidos de que es verdad, que estemos seguros de ello, que seamos capaces de descartar la hipótesis escéptica. Cada vez que alguien diga que sabe algo, podemos formular una hipótesis escéptica tal que, si es cierta, entonces no es cierto que ese alguien sabe ese algo. El escéptico dirá "¿Estás en condiciones de asegurar que la hipótesis escéptica es falsa?". Si su interlocutor reconoce que no puede descartar la hipótesis escéptica, entonces no podemos decir que sepa ese algo.
Hasta aquí no hay nada que nos sorprenda. Sin embargo, a lo largo de la historia del pensamiento muchos filósofos han ido más allá, siguiendo una tradición que no sólo se limita a la filosofía occidental, y han llegado a afirmar que es posible elaborar una hipótesis escéptica para prácticamente cualquier cosa que un sujeto asegure conocer, de tal manera que este sujeto va a ser incapaz de asegurar al 100% que esa hipótesis es falsa, reconociendo así que realmente no sabe lo que asegura saber. Los ejemplos más conocidos son los del filósofo, físico y matemático francés René Descartes.
La primera hipótesis escéptica de Descartes: el argumento del sueño.
MORFEO.- ¿Alguna vez has tenido un sueño, Neo, que pareciese muy real? ¿Qué ocurriría si no pudieras despertar de ese sueño? ¿Cómo diferenciarías el mundo de los sueños de la realidad?
Al darse cuenta Descartes de que no eran tan seguras todas las cosas que hasta ese momento creía conocer, el filósofo, físico y matemático francés comprendió que era de suma importancia intentar construir un edificio, un cuerpo de conocimientos sostenido sobre sólidos cimientos, de tal manera que podamos estar seguros de cada ladrillo del mismo [Descartes1647]. Pero al ponerse manos a la obra descubrió que esta empresa era tremendamente difícil, ya que era capaz de dudar de prácticamente cualquier cosa que hasta ese momento había creído saber. Por ejemplo, algo que parece tan obvio, como que ahora mismo, querido lector, está usted delante de una pantalla leyendo este artículo, también es vulnerable a la hipótesis escéptica de que a lo mejor está usted soñando que está delante de una pantalla, cuando en realidad tiene usted los ojos cerrados y está usted durmiendo en la cama.
René Descartes. De Según Frans Hals - André Hatala [e.a.] (1997) De eeuw van Rembrandt, Bruxelles: Crédit communal de Belgique, ISBN 2-908388-32-4., Dominio público, Enlace
Aunque Descartes no estaba interesado en el problema del conocimiento, podemos tomar su ejemplo para concluir que no estamos autorizados a decir que usted, querido lector, sabe que está en estos momentos delante de una pantalla. Y esta primera hipótesis escéptica de Descartes no sólo se puede aplicar a la pantalla que usted cree que tiene delante, sino que arroja dudas sobre casi cualquiera de nuestras observaciones particulares sobre las cosas externas a nosotros. Cuando esté visitando algún lugar, o hablando con alguien, usted no puede descartar la posibilidad de que a lo mejor no está en ese lugar o con esa persona porque puede que esté soñando y, por tanto, tampoco estamos autorizados a decir que usted tiene conocimiento de estar en ese lugar o tener delante a esa persona.
¿Cómo podemos descartar la primera hipótesis escéptica de Descartes?
Es importante aclarar que lo que Descartes afirmó es que en realidad él no sabía que la hipótesis escéptica es falsa, ya que, para saber que algo es falso, es necesario estar seguro de que es falso. Y la evidencia experimental que él poseía es compatible, tanto con el hecho de que las cosas sean lo que parecen, como con el hecho de que en realidad esté soñando. Pero, ¿de verdad es usted, querido lector, incapaz de señalar algún hecho experimental que sea incompatible con que ahora mismo esté soñando? Es verdad que pensar que usted está despierto no le va a servir como hecho experimental que permita distinguir la vigilia del suelo, ya que en ambos casos uno piensa que está despierto. El mismo Descartes ya anticipó la respuesta que otros podían dar a su argumento, al señalar que los sueños no son tan nítidos como las experiencias reales. Además, en ellos ocurren cosas extrañas, bastante más impredecibles y con menos sentido que los sucesos que ocurren en la realidad. Por tanto, sí podría usted afirmar que sabe que no está soñando en estos momentos porque todo es en HD.
Pero Descartes sabía como defenderse de este contraargumento. Es verdad que los sueños no tienen la misma nitidez que la realidad, pero en ellos sí que pensamos que nuestras experiencias son nítidas, con lo que seguimos sin poder descartar la hipótesis escéptica.
En mi opinión, y en la de muchos otros filósofos [Hare2013], Descartes se equivocaba en esto. Su razonamiento sólo funciona si la única prueba experimental que tenemos es el hecho de que creemos que estamos teniendo experiencias nítidas. Pero las pruebas que tenemos de que no estamos soñando en estos momentos no se limitan a que parece que estamos teniendo experiencias nítidas, sino al hecho de que estamos teniendo experiencias nítidas. Esas experiencias son en sí mismas las pruebas experimentales de que no estamos soñando.
El segundo argumento escéptico de Descartes: el argumento del demonio maligno
No obstante, Descartes fue más allá con un argumento escéptico todavía más potente: ya no es sólo que a lo mejor no tiene usted una pantalla delante porque en realidad está usted soñando, sino que, a lo mejor, ni siquiera existen las pantallas, o ni siquiera tiene usted ojos para mirarlas, o ni siquiera existe el mundo físico. Un demonio maligno puede estar metiendo datos en su cerebro que le hacen creer que está teniendo experiencias sensoriales que provienen de una pantalla en la que está escrito este artículo.
Es más, a lo mejor ni siquiera las verdades matemáticas más evidentes, como que 2+3=5, son ciertas. El demonio maligno podría estar metiendo esa información en su cabeza para hacerle creer que 2+3=5, pero en realidad 2+3=4.
Por tanto, tiene usted que reconocer que ni siquiera sabe que existen las pantallas y que ni siquiera sabe que 2+3=5, ya que no está usted en condiciones de asegurar que la hipótesis del demonio es falsa. Pero eso significa entonces que en realidad no sabe usted nada, ¿no?
Bueno, hay algo para lo que Descartes no fue capaz de encontrar una hipótesis escéptica. Aunque un demonio le esté metiendo esas cosas en su cabeza, incluso en esa situación, no tenía ninguna duda de su propia existencia. Ese es el famoso "Je pense, donc je suis" que Descartes introdujo como pilar fundamental de su filosofía en el Discurso del Método:
Pero enseguida advertí que mientras de este modo quería pensar que todo era falso, era necesario que yo, quien lo pensaba, fuese algo. Y notando que esta verdad: yo pienso, por lo tanto soy, era tan firme y cierta, que no podían quebrantarla ni las más extravagantes suposiciones de los escépticos, juzgué que podía admitirla, sin escrúpulo, como el primer principio de la filosofía que estaba buscando [Descartes1637].
El problema es que eso es lo único que nos queda de todas las cosas que creíamos saber. En realidad no sabemos ninguna salvo eso, que es ridículamente poco. Es un auténtico desastre epistemológico.
¿Cómo podemos descartar la segunda hipótesis escéptica de Descartes?
De nuevo, para Descartes usted no puede descartar la hipótesis escéptica porque todas las pruebas experimentales que tiene sobre cómo son las cosas son consistentes tanto con la hipótesis del demonio maligno como con que las cosas sean como parecen. Sin embargo, ¿es la evidencia que usted tiene sobre que 2+3=5 en realidad consistente con la hipótesis del demonio maligno? De nuevo, si esa evidencia se redujera exclusivamente al hecho de que usted cree que 2+3=5, Descartes tendría razón. Pero, ¿de verdad esa es la única prueba que usted tiene de que 2+3=5? Merece la pena que nos detengamos en este punto.
Cualquier persona que haya sido adoctrinada por la secta de los matemáticos platonistas contesta inmediatamente que sí tenemos una forma rigurosa de demostrar que 2+3=5. Ese enunciado no es más que un teorema de la aritmética muy fácil de probar a partir de los axiomas de Peano. Pero hay un problema con esto. Aunque esa inferencia esté bien hecha y, por tanto, sea válida, eso no significa que tenga que ser una buena inferencia, ya que los axiomas de Peano podrían ser falsos, o incluso podrían ser inconsistentes. No sirve de nada "demostrar" algo a partir de unos axiomas inconsistentes, ya que de un conjunto de proposiciones inconsistentes entre ellas se puede deducir cualquier cosa. Podríamos probar la conjetura de Goldbach y, al mismo tiempo, su negación. Podríamos probar que 2+3=5 y, al mismo tiempo, que 2+3 es distinto de 5. Para poder descartar con seguridad este escenario catastrófico para las matemáticas, es necesario, por tanto, demostrar que los axiomas de Peano son consistentes.
Afortunadamente, sí tenemos una demostración de que los axiomas de Peano son consistentes. El problema es que esa demostración parte de los axiomas de la teoría de conjuntos, axiomas más fuertes que los de Peano y, por tanto, más sospechosos de ser inconsistentes. Es decir, si la aritmética fuera inconsistente, también lo sería la teoría de conjuntos. Es como si ocurre un asesinato, y tenemos un testigo que tiene toda la pinta de ser de confianza, pero no estamos totalmente seguros de que está diciendo la verdad y, para estar seguros de que ese testigo es de fiar, preguntamos a otra persona que conoce a ese testigo si ese testigo es de fiar. Esa segunda persona nos dice que sí, que es de fiar, pero ese testimonio nos sirve de poco porque esa segunda persona parece todavía más mentirosa que la primera.
Es decir, lo que necesitamos es una prueba de que la aritmética es consistente dentro de la misma aritmética. Desgraciadamente, esto es imposible. El segundo teorema de Gödel nos dice que cualquier sistema axiomático interesante sólo puede probar su propia consistencia si es en sí mismo inconsistente [Gödel1931].
No le queda a usted, querido lector, más remedio que reconocer que no está usted seguro de si la aritmética es consistente o no y, por tanto, no está usted seguro de que 2+3=5. No tiene usted evidencia de que 2+3=5 más allá del hecho de que usted piensa que 2+3=5, pensamiento que podría haber sido introducido en su cabeza por un demonio maligno. Como no puede descartar la hipótesis escéptica, no está usted seguro de que 2+3=5 y, por tanto, usted no está autorizado a decir que "sabe" que 2+3=5. Si ni siquiera tiene usted conocimiento de verdades matemáticas tan simples, las cosas que usted sabe son muy muy pocas. No es posible tener conocimiento más que en un tamaño ridículamente pequeño, ¿verdad?
Pues no. Claro que sabemos que 2+3=5. Claro que estamos seguros de que 2+3=5. De hecho estamos seguros de que la aritmética es consistente. Pero no porque podamos demostrarlo matemáticamente. El motivo por que el que no hay ningún matemático que piense que la aritmética es inconsistente es de la misma naturaleza que el motivo por el que los físicos de partículas están convencidos de que los electrones y los fotones interaccionan entre ellos de acuerdo a las leyes de la electrodinámica cuántica. Tenemos pruebas experimentales muy sólidas de que esto es así. Desde que éramos muy pequeños hemos sumado a 2 cosas 3 cosas, y hemos comprobado que el resultado es 5 cosas. Cientos de miles de matemáticos a lo largo de la historia han jugado con la aritmética probando teoremas dentro de ella e insertándola también en estructuras más ricas (y ahora también haciendo comprobaciones numéricas altamente no triviales con ordenadores) y lo que han encontrado es una estructura muy rica sin ningún tipo de señal de que haya alguna inconsistencia. No es cierto que la única evidencia que tenemos de que los teoremas de la aritmética son verdaderos es que creamos que son verdaderos. La aritmética, como el resto de las matemáticas, es una ciencia experimental, y tenemos evidencias experimentales muy fuertes a su favor. El lector interesado en el motivo por el que es artificial la frontera tradicional entre las proposiciones analíticas de las matemáticas y las sintéticas de la física, puede leer este artículo.
De nuevo, comprobamos que lo que nos permite desmontar el segundo argumento escéptico de Descartes es también el conjunto de evidencias experimentales que tenemos sobre el mundo. Para descartar las hipótesis escépticas vemos que lo único que tenemos que hacer es utilizar una de las armas más poderosas que ha creado el ser humano y que tenemos a nuestros disposición. Transformando un poco el eslogan de la campaña electoral de Bill Clinton de 1992, podemos decir que "es la física, estúpido".
El argumento del cerebro en un contenedor
La versión moderna del primer argumento escéptico de Descartes utiliza una hipótesis escéptica más sofisticada, pero que parece cumplir a la perfección con la intención de Descartes cuando propuso la hipótesis del sueño. Usted se cree que está mirando una pantalla en estos momentos, cuando en realidad lo que ocurre es que usted es un cerebro metido en un tarro al que alguien o algo está introduciendo experiencias sensoriales mediante señales eléctricas que estimulan sus neuronas. La pantalla que usted piensa que está mirando en realidad no existe. De hecho, ni siquiera su propio cuerpo existe. Los datos sobre el mismo los están también introduciendo en su cerebro.
Este argumento moderno parece que es capaz de escapar de las críticas que recibió el primer argumento escéptico de Descartes. Después de todo, ahora sí es verdad que ambas hipótesis, la del cerebro en un contenedor y la de que las cosas sí son lo que parecen, son de verdad compatibles con el hecho de que está usted recibiendo la experiencia sensorial de estar en este momento delante de una pantalla. El cerebro en un tarro está recibiendo exactamente las mismas experiencias que una persona de verdad.
Esta es precisamente la versión de la hipótesis escéptica con la que juegan las hermanas Wachowski en la película The Matrix. Cuando el protagonista, Neo, elige la pastilla roja, que es la que proporciona la dolorosa verdad, descubre que el mundo en el que creía vivir no es más que una simulación virtual a la que se encuentra conectado mediante un cable enchufado en su cerebro. Las miles de millones de personas que viven (conectadas) a su alrededor, están siendo cultivadas del mismo modo para poder dar energía a las máquinas. Esta ilusión colectiva (o simulación interactiva) es conocida como Matrix (la matriz).
Además de haberse convertido esta idea en un tema recurrente en ciencia ficción, algunos filósofos que estudian el transhumanismo se han tomado la hipótesis de la simulación muy en serio tras la publicación de un artículo del filósofo sueco de la Universidad de Oxford Nick Bostrom [Bostrom2003]. En este artículo Bostrom argumenta que al menos uno de los siguientes enunciados tiene que ser verdadero:
El argumento de la simulación de Bostrom está lleno de conceptos que no están bien definidos, como, por ejemplo, "la fracción de todas las personas con nuestro tipo de experiencias", que utiliza arbitrariamente para acabar afirmando algo tan serio como que tenemos evidencia empírica de que probablemente vivamos en una simulación. Por mucho que se empeñen Bostrom y los que le han comprado el argumento en vestir sus razonamientos de rigor científico, no existe ninguna ley que diga que la probabilidad de que un sujeto pertenezca a un subconjunto B del conjunto A sea igual al cociente del cardinal de B entre el cardinal de A. Si los cardinales son infinitos este cociente ni siquiera está bien definido. Pero, incluso aunque ese cociente sí esté bien definido matemáticamente, no hay ninguna razón para que esa probabilidad sea igual a ese cociente. Y, de hecho, en física en la mayoría de los casos no lo es. Sólo lo es cuando todos los elementos de A son igual de probables, y esto sólo ocurre cuando hay algún motivo físico para que lo sean. Por ejemplo, todos los microestados compatibles con un macroestado dado en un sistema en equilibrio térmico son igualmente probables en las condiciones en las que se cumple la hipótesis ergódica. Pero estas cosas sólo pasan en un número muy reducido de situaciones, y no hay ningún tipo de simetría ni principio democrático que equipare a las personas que desarrollan su actividad en universos reales con los que viven en universos simulados [Motl2013/03].
No tenemos ningún argumento serio ni ninguna evidencia empírica que apunte a que es probable que vivamos en una simulación. No merece la pena dedicar ni un párrafo más a semejante chorrada. La hipótesis de la simulación es interesante sólo como hipótesis escéptica, ya que, aunque no hay ninguna prueba empírica que apunte a que vivamos en Matrix, sí es cierto que el argumento de la simulación constituye una amenaza seria a la idea de que tenemos conocimiento de cosas mucho más allá del "Je pense, donc je suis". Si lo estructuramos en la forma "premisas => conclusión", el argumento escéptico queda así:
Por ejemplo, para el filósofo norteamericano Robert Nozick la conclusión tenía que ser falsa, ya que podemos justificar el tener una tremenda confianza en que la pantalla que estamos mirando es real y, además, si esa pantalla no fuera real, entonces muy probablemente no tendríamos tanta confianza en que lo sea. Hay muchos casos en los que vemos una pantalla dentro de otra pantalla y sabemos que la pantalla de dentro no es real. La situación relevante más próxima sería uno de esos casos. Sin embargo, para Nozick sí que es verdadera la premisa 1, ya que, si viviéramos en Matrix, entonces aún así seguiríamos creyendo que no vivimos en Matrix. Como esa creencia no es sensible a la verdad, no podemos decir que sabemos que es falso que vivamos en Matrix. Como la premisa 2 también es verdadera, a Nozick no le quedó otra opción que rechazar la premisa 3, es decir, para él el conocimiento no cierra bajo una deducción conocida [Nozick1981].
Pero la propuesta de Nozick es absurda. Supongamos que gano una carrera y que usted es testigo de mi victoria. Usando el razonamiento de Nozick podríamos decir que usted sabe que yo gané la carrera, pero, el mismo tiempo, usted no sabe si alguien colocó una serie de espejos para crear la ilusión óptica de que gané la carrera. La diferencia está en que, mientras que si yo no hubiera ganado la carrera usted muy probablemente habría visto ganar a otro y, por tanto, no creería que yo gané, en el caso de que alguien hubiera colocado los espejos usted seguiría creyendo que yo gané. No es buena idea rechazar el principio de cierre lógico del conocimiento, ya que entonces estaríamos dejando de captar la esencia de lo que es conocer [Hare2013]. Tanto la premisa 3 como la 2 son claramente verdaderas.
Por ello, la pregunta que nos vamos a hacer aquí es si es falsa la premisa 1, es decir, si en este caso somos capaces, como en el caso del sueño, de descartar que vivamos en Matrix señalando aspectos de nuestra experiencia que sean incompatibles con vivir en una simulación informática. Ciertamente, esto nos va a costar más que decir simplemente que esa hipótesis escéptica queda descartada porque tenemos experiencias nítidas. ¿Nos permiten nuestros conocimientos actuales sobre física descartar la hipótesis de que vivimos en una simulación tipo Matrix?
Además de haberse convertido esta idea en un tema recurrente en ciencia ficción, algunos filósofos que estudian el transhumanismo se han tomado la hipótesis de la simulación muy en serio tras la publicación de un artículo del filósofo sueco de la Universidad de Oxford Nick Bostrom [Bostrom2003]. En este artículo Bostrom argumenta que al menos uno de los siguientes enunciados tiene que ser verdadero:
- La fracción de civilizaciones a un nivel humano que alcanzan un estadio posthumano es muy cercana a cero;
- La fracción de civilizaciones posthumanas que se interesan en correr simulaciones sobre ancestros es muy cercana a cero;
- La fracción de todas las personas con nuestro tipo de experiencias que se hallan viviendo en una simulación es muy cercana a uno.
El argumento de la simulación de Bostrom está lleno de conceptos que no están bien definidos, como, por ejemplo, "la fracción de todas las personas con nuestro tipo de experiencias", que utiliza arbitrariamente para acabar afirmando algo tan serio como que tenemos evidencia empírica de que probablemente vivamos en una simulación. Por mucho que se empeñen Bostrom y los que le han comprado el argumento en vestir sus razonamientos de rigor científico, no existe ninguna ley que diga que la probabilidad de que un sujeto pertenezca a un subconjunto B del conjunto A sea igual al cociente del cardinal de B entre el cardinal de A. Si los cardinales son infinitos este cociente ni siquiera está bien definido. Pero, incluso aunque ese cociente sí esté bien definido matemáticamente, no hay ninguna razón para que esa probabilidad sea igual a ese cociente. Y, de hecho, en física en la mayoría de los casos no lo es. Sólo lo es cuando todos los elementos de A son igual de probables, y esto sólo ocurre cuando hay algún motivo físico para que lo sean. Por ejemplo, todos los microestados compatibles con un macroestado dado en un sistema en equilibrio térmico son igualmente probables en las condiciones en las que se cumple la hipótesis ergódica. Pero estas cosas sólo pasan en un número muy reducido de situaciones, y no hay ningún tipo de simetría ni principio democrático que equipare a las personas que desarrollan su actividad en universos reales con los que viven en universos simulados [Motl2013/03].
No tenemos ningún argumento serio ni ninguna evidencia empírica que apunte a que es probable que vivamos en una simulación. No merece la pena dedicar ni un párrafo más a semejante chorrada. La hipótesis de la simulación es interesante sólo como hipótesis escéptica, ya que, aunque no hay ninguna prueba empírica que apunte a que vivamos en Matrix, sí es cierto que el argumento de la simulación constituye una amenaza seria a la idea de que tenemos conocimiento de cosas mucho más allá del "Je pense, donc je suis". Si lo estructuramos en la forma "premisas => conclusión", el argumento escéptico queda así:
- Premisa 1: Usted no sabe que es falso que viva en una simulación tipo Matrix (usted no puede descartar la posibilidad de que esté viviendo en Matrix).
- Premisa 2: Usted sabe que si la pantalla que está mirando ahora mismo es real, entonces es falso que viva en una simulación tipo Matrix.
- Premisa 3: Para cualquier par de proposiciones $a$ y $b$, si usted sabe que $a$, y si usted sabe que $a$ implica $b$, entonces usted sabe que $b$ (principio de cierre lógico del conocimiento). Nótese que este principio no es igual al modus ponens debido a la parte "usted sabe que".
- Conclusión: Usted no sabe si la pantalla que está viendo es real.
Por ejemplo, para el filósofo norteamericano Robert Nozick la conclusión tenía que ser falsa, ya que podemos justificar el tener una tremenda confianza en que la pantalla que estamos mirando es real y, además, si esa pantalla no fuera real, entonces muy probablemente no tendríamos tanta confianza en que lo sea. Hay muchos casos en los que vemos una pantalla dentro de otra pantalla y sabemos que la pantalla de dentro no es real. La situación relevante más próxima sería uno de esos casos. Sin embargo, para Nozick sí que es verdadera la premisa 1, ya que, si viviéramos en Matrix, entonces aún así seguiríamos creyendo que no vivimos en Matrix. Como esa creencia no es sensible a la verdad, no podemos decir que sabemos que es falso que vivamos en Matrix. Como la premisa 2 también es verdadera, a Nozick no le quedó otra opción que rechazar la premisa 3, es decir, para él el conocimiento no cierra bajo una deducción conocida [Nozick1981].
Pero la propuesta de Nozick es absurda. Supongamos que gano una carrera y que usted es testigo de mi victoria. Usando el razonamiento de Nozick podríamos decir que usted sabe que yo gané la carrera, pero, el mismo tiempo, usted no sabe si alguien colocó una serie de espejos para crear la ilusión óptica de que gané la carrera. La diferencia está en que, mientras que si yo no hubiera ganado la carrera usted muy probablemente habría visto ganar a otro y, por tanto, no creería que yo gané, en el caso de que alguien hubiera colocado los espejos usted seguiría creyendo que yo gané. No es buena idea rechazar el principio de cierre lógico del conocimiento, ya que entonces estaríamos dejando de captar la esencia de lo que es conocer [Hare2013]. Tanto la premisa 3 como la 2 son claramente verdaderas.
Por ello, la pregunta que nos vamos a hacer aquí es si es falsa la premisa 1, es decir, si en este caso somos capaces, como en el caso del sueño, de descartar que vivamos en Matrix señalando aspectos de nuestra experiencia que sean incompatibles con vivir en una simulación informática. Ciertamente, esto nos va a costar más que decir simplemente que esa hipótesis escéptica queda descartada porque tenemos experiencias nítidas. ¿Nos permiten nuestros conocimientos actuales sobre física descartar la hipótesis de que vivimos en una simulación tipo Matrix?
Está claro que, si vivimos en una simulación informática, entonces las leyes de la física que describen esa simulación tienen que indicarnos que los ladrillos fundamentales del universo son discretos, como los bits sobre los que hemos construido los ordenadores. Esto es así porque los números reales no son computables. Así que la pregunta que nos hacemos ahora es si los constituyentes básicos del universo son continuos o discretos. ¿Es la física actual capaz de hacer como Neo y ver la verdadera naturaleza digital de los constituyentes de nuestro universo?
Ahora, querido lector, tiene usted que elegir entre la pastilla azul o la roja, al estilo de los libros de la colección "Elige tu propia aventura".
MORFEO.- Por desgracia no se puede explicar lo que es Matrix. Has de verla con tus propios ojos. Esta es tu última oportunidad. Después, ya no podrás echarte atrás. Si tomas la pastilla azul, fin de la historia. Despertarás en tu cama y creerás lo que quieras creerte. Si tomas la roja, te quedas en el País de las Maravillas y yo te enseñaré hasta dónde llega la madriguera de conejos. Recuerda, lo único que te ofrezco es la verdad. Nada más.
¿Nos permiten nuestros conocimientos actuales sobre física descartar la hipótesis de que vivimos en una simulación tipo Matrix? La respuesta que da la pastilla azul
Imagine un vaso de agua. El agua macroscópicamente parece un fluido continuo, pero en clase de Física y Química en el instituto aprendimos que, si hacemos zoom hasta el tamaño del nanómetro, nos daremos cuenta de que el agua está hecha de entes discretos denominados moléculas. Cada molécula de agua está formada por la unión covalente de un átomo de oxígeno y dos de hidrógeno. El resto de líquidos, los sólidos y los gases también están formados por átomos. Las leyes de la termodinámica, leyes continuas, se derivan de la física estadística en sistemas formados por muchos átomos cuando no tenemos resolución para descubrir la naturaleza discreta de la materia.
Además, la física cuántica nos ha enseñado que los niveles de energía que pueden tener estos átomos en su configuración interna no son continuos, sino discretos. Al pasar de unos niveles a otros, los átomos emiten o absorben fotones que se llevan o traen la energía involucrada en el proceso. No puede existir medio fotón, ni π fotones. El número de fotones posibles es un número natural. La luz está cuantizada.
Aunque la palabra "átomo" significa indivisible, hoy sabemos que los átomos están hechos de partículas elementales. Pero, hasta lo que sabemos, tanto los quarks que constituyen los protones, los neutrones y los demás hadrones, como los electrones y el resto de leptones, no tienen estructura interna. No hemos encontrado nada que nos indique que estas partículas, cuyo comportamiento tan bien describe el Modelo Estándar, sean compuestas de nada, y tampoco es posible tener medio electrón o π electrones.
En conclusión, aunque la física macroscópica parece continua y se describe con números reales, en cuanto nos vamos al mundo subatómico los números enteros aparecen por todas partes.
Es verdad que sabemos que el Modelo Estándar no es la descripción fundamental de la naturaleza, sino una teoría efectiva que, en buena aproximación, es válida a baja energía (con esto me refiero a energías no superiores a las que somos capaces de alcanzar en los aceleradores de partículas actuales). A energías mayores tiene que haber partículas y fenómenos nuevos. En particular, al llegar a la escala de Planck se tienen que notar los efectos cuánticos de la única interacción que no está incorporada en el Modelo Estándar, la interacción gravitatoria. Sabemos que la mejor teoría que tenemos hasta ahora para describir esta interacción, la relatividad general de Einstein, deja de tener validez a esa escala. Esto hace que exista una longitud, denominada longitud de Planck (en torno a diez elevado a -35 metros), por debajo de la cual el espaciotiempo deja de estar descrito por la geometría continua de la relatividad general. El espaciotiempo a esa escala podría ser discreto, siendo su continuidad una ilusión de las escalas macroscópicas con las que trabajamos, al igual que ocurría con el vaso de agua.
La hipótesis de la naturaleza finita es la suposición de que, a determinada escala, el espacio y el tiempo, que parecen continuos a las energías con las que trabajamos en los aceleradores, manifiestan una naturaleza discreta, y que el número de los posible estados en los que puede estar cualquier porción de volumen finito de nuestro universo es en realidad finito, aunque sea muy grande y nos parezca infinito [Fredkin1992].
Además, la física cuántica nos ha enseñado que los niveles de energía que pueden tener estos átomos en su configuración interna no son continuos, sino discretos. Al pasar de unos niveles a otros, los átomos emiten o absorben fotones que se llevan o traen la energía involucrada en el proceso. No puede existir medio fotón, ni π fotones. El número de fotones posibles es un número natural. La luz está cuantizada.
Aunque la palabra "átomo" significa indivisible, hoy sabemos que los átomos están hechos de partículas elementales. Pero, hasta lo que sabemos, tanto los quarks que constituyen los protones, los neutrones y los demás hadrones, como los electrones y el resto de leptones, no tienen estructura interna. No hemos encontrado nada que nos indique que estas partículas, cuyo comportamiento tan bien describe el Modelo Estándar, sean compuestas de nada, y tampoco es posible tener medio electrón o π electrones.
En conclusión, aunque la física macroscópica parece continua y se describe con números reales, en cuanto nos vamos al mundo subatómico los números enteros aparecen por todas partes.
Es verdad que sabemos que el Modelo Estándar no es la descripción fundamental de la naturaleza, sino una teoría efectiva que, en buena aproximación, es válida a baja energía (con esto me refiero a energías no superiores a las que somos capaces de alcanzar en los aceleradores de partículas actuales). A energías mayores tiene que haber partículas y fenómenos nuevos. En particular, al llegar a la escala de Planck se tienen que notar los efectos cuánticos de la única interacción que no está incorporada en el Modelo Estándar, la interacción gravitatoria. Sabemos que la mejor teoría que tenemos hasta ahora para describir esta interacción, la relatividad general de Einstein, deja de tener validez a esa escala. Esto hace que exista una longitud, denominada longitud de Planck (en torno a diez elevado a -35 metros), por debajo de la cual el espaciotiempo deja de estar descrito por la geometría continua de la relatividad general. El espaciotiempo a esa escala podría ser discreto, siendo su continuidad una ilusión de las escalas macroscópicas con las que trabajamos, al igual que ocurría con el vaso de agua.
La hipótesis de la naturaleza finita es la suposición de que, a determinada escala, el espacio y el tiempo, que parecen continuos a las energías con las que trabajamos en los aceleradores, manifiestan una naturaleza discreta, y que el número de los posible estados en los que puede estar cualquier porción de volumen finito de nuestro universo es en realidad finito, aunque sea muy grande y nos parezca infinito [Fredkin1992].
¿Nos permiten nuestros conocimientos actuales sobre física descartar la hipótesis de que vivimos en una simulación tipo Matrix? La respuesta que da la pastilla roja
La respuesta que nos acaba de dar la pastilla azul es tan atractiva que muchos filósofos y divulgadores científicos ha rechazado la pastilla roja para profundizar más en este asunto. Este es el motivo por el que propuse, en la sección del Instituto Ouróboros en el programa de radio La Noche Paradigmática, que se hiciera un debate sobre si realmente podemos descartar la hipótesis escéptica de que vivimos en una simulación. Además del presentador, Rafael Macho (@RDMRBQ92), la co-presentadora, Teresa Camarena (@Teresita_21M), y el colaborador que dirige la sección, José María Martínez (@jmmjouroboros), fueron invitados al debate dos jóvenes promesas del mundo de la investigación científica, Álvaro Rodríguez (@alvarorgtr), como representante del mundo de la computación, y Jesús Bonilla (@BonillaGJesus), del mundo de la física de partículas, además de yo mismo. El debate se puede escuchar aquí, a partir del minuto 18:
Escucha "La Noche Paradigmatica - Programa 8"de Paradigma Media Andalucía via #spreaker https://t.co/p9AodEtzFB Rt @Habla_Filosofia @steliumensemble @AulaDebateUCO @InstOuroboros @kyrioscordoba @Cordoba_Kombat @Teresita_21M @RDMRBQ92 @EvilSound @paradigma_media— @noche_paradigmatica (@paradigmanoche) 30 de junio de 2019
Es una pena que, por falta de tiempo, Jose María, Álvaro y Jesús no hayan podido hacer una réplica a mis últimas declaraciones, así que aprovecho este artículo para desarrollarlas y dar la oportunidad a los demás de contestarme mediante la caja de comentarios de este blog.
Como mencioné en el debate, que el mundo sea cuántico no significa que todo sea discreto. Es verdad que el nombre de "mecánica cuántica" viene del hecho de que algunos observables en determinadas condiciones sólo pueden tomar valores discretos. Así, la energía de los estados ligados sólo puede tomar determinados valores discretos que se corresponden con los autovalores del hamiltoniano del sistema ligado. Por ejemplo, los posibles niveles de energía del átomo de hidrógeno sólo pueden tomar los valores
$$
E_n=-\frac{13,6 \text{ eV}}{n^2}
$$
donde $n$ es un número entero positivo. Sin embargo, si el sistema no es ligado (por ejemplo, si el electrón tiene energía suficiente para escapar de la atracción del protón), entonces el espectro de los posibles valores de la energía es continuo. En mecánica cuántica la posición de una partícula tampoco toma valores discretos, y la cantidad de movimiento en una dirección concreta sólo lo hace si compactificamos el espacio en esa dirección. Por ejemplo, si la partícula sólo puede vivir en la circunferencia que surge de identificar el punto x=0 con el punto x=L, para que la función de onda correspondiente al estado en el que la cantidad de movimiento toma un valor p,
$$
e^{\frac{i}{\hbar}px}
$$
esté bien definida en ese círculo, esa cantidad de movimiento sólo puede tomar los valores
$$
p=\frac{h}{L}n
$$
donde $n$ es aquí un número entero).
En mecánica cuántica cualquiera de las componentes, Lx, Ly o Lz, del momento angular orbital de una partícula sólo puede tomar valores que sean múltiplos de $\hbar$, que es la constante de Planck h dividida entre 2π, aunque es imposible que dos de ellas tomen valores bien definidos simultáneamente. Sin embargo, la acción de esa partícula, que posee las mismas unidades que el momento angular, no está cuantizada. Esta acción es un número real asociado a cada posible camino seguido por la partícula hasta llegar al detector y nos da, en unidades de $\hbar$, el valor de la fase (argumento) que tiene la amplitud de probabilidad asociada a ese camino, que es un número complejo. La amplitud de probabilidad de que la partícula llegue a ese detector se calcula sumando las amplitudes de probabilidad de cada camino. Según si son números complejos con el mismo argumento o no, esta suma, denominada suma de caminos de Feynman, dará lugar a interferencia constructiva (en cuyo caso la probabilidad de que la partícula llegue al detector es alta) o destructiva (lo que da probabilidad baja).
No sólo son continuos los caminos, también hay todo un intervalo continuo de posibilidades entre los casos extremos de interferencia constructiva o destructiva. En muchos casos, como en el experimento de difracción por una rendija, esta suma de caminos de Feynman nos da lugar a alternancia entre interferencia constructiva y destructiva (se obtiene básicamente la transformada de Fourier de la función rectangular), lo que nos permite etiquetar con números enteros todos los máximos. Se trata de un mecanismo maravilloso que hace surgir así números enteros a partir de una física que es continua a nivel fundamental.
Nótese que, para que puede observarse este patrón de difracción con sus máximos y mínimos, es necesario que el tamaño de la rendija no sea mucho más grande que la longitud de onda de de Broglie de la partícula. Esto es así porque la aproximación clásica, en la que la partícula ha seguido un único camino bien definido, deja de funcionar cuando las diferencias entre las acciones de los distintos caminos empiezan a hacerse comparables a $\hbar$, que es lo que ocurre cuando vamos haciendo el tamaño de la rendija más pequeño. Es ahí cuando empiezan a notarse el fenómeno cuántico de la interferencia entre caminos. Pero para que surja este fenómeno, la acción no necesita hacerse discreta y, de hecho, toma valores continuos, aunque distintos para cada camino.
El nombre de "mecánica cuántica" es, por tanto, engañoso en este sentido, ya que se trata de una teoría construida sobre números complejos, cantidades continuas, en la que los valores discretos surgen como soluciones de las ecuaciones en algunas ocasiones. En mecánica cuántica los números enteros no son fundamentales, son emergentes. Surgen siempre que hacemos la transformada de Fourier de algo compacto [Tong2011].
¿Puede entonces el comportamiento cuántico del universo, basado en la suma de caminos de Feynman, ser simulado por un ordenador? Está claro que no. Los resultados que obtenemos al medir los observables mecanocuánticos son extremadamente sensibles a las interferencias constructivas y destructivas entre un número infinito de amplitudes, cada una de ellas asociada a un camino. Simular esto con un ordenador clásico requiere una precisión irrealizable, y cualquier técnica que queramos utilizar de compresión va a tener como consecuencia la pérdida de los efectos cuánticos observados.
Otro concepto fundamental en mecánica cuántica es el de función de onda. Ésta no es más que una función que asocia, a cada posible resultado de la medición, la amplitud de probabilidad que hemos calculado con la suma de caminos de Feynman. Es verdad que se pueden hacer simulaciones de la función de onda y su evolución con un ordenador clásico, pero estas simulaciones no son lo mismo que la función de onda, ya que la función de onda no es una onda clásica. Estas simulaciones por ordenador tratan a la función de onda como si fuera una onda clásica con existencia objetiva, pero no lo es. Este es el motivo por el que dos funciones de onda muy parecidas son indistinguibles físicamente (lo que da lugar al efecto Zenón cuántico), mientras que dos ondas clásicas muy parecidas sí son distinguibles. Los valores que toma la función de onda son amplitudes de probabilidad de los distintos resultados, algo que depende del dispositivo experimental elegido y del observador. No se puede hacer una simulación clásica de todo el universo.
Además, cualquier intento parcial de realizar esa simulación clásica necesitaría reproducir las correlaciones que se ha comprobado experimentalmente que se dan entre partículas entrelazadas. Se trata de correlaciones altamente no triviales como, por ejemplo, la violación de las desigualdades de Bell. Esto sólo puede hacerse clásicamente violando el principio de localidad de la relatividad especial. En cambio, la mecánica cuantica sí da lugar a estas correlaciones sin violar el principio de localidad porque es no realista.
Así que, si el comportamiento cuántico del universo que estamos observando es simulado, esta simulación sólo es posible en un ordenador cuántico. Este ordenador cuántico puede trabajar con bits cuánticos (qubits, base 2), con qutrits (base 3), con qudits (base 10) o con cualquier otra unidad de información cuántica. Sin embargo, no tenemos ninguna indicación que apunte a que la información del universo observable esté estructurada de esta manera. Por ejemplo, si lo estuviera en qubits, entonces el espacio vectorial de todos los posibles estados cuánticos debería tener dimensión potencia de 2. De hecho, lo que sabemos es que ni siquiera es este espacio vectorial de dimensión finita. Por ejemplo, incluso aunque compactifiquemos el eje x, hemos visto que los posibles valores que puede tomar la cantidad de movimiento de una partícula que se mueve en esa dirección, aunque discretos, son infinitos. El espacio vectorial de todos los estados ligados posibles del electrón en el átomo de hidrógeno es también de dimensión finita, aunque numerable. Y si encima consideramos estados en los que electrón no está ligado al protón, entonces es de dimensión infinita no numerable.
Es verdad que en ocasiones podemos simular algunos fenómenos que ocurren en los sistemas cuánticos usando espacios vectoriales de estados de dimensión finita, ya que muchos de estos estados cuánticos tienen una contribución despreciable a la entropía del sistema. Por ejemplo, en equilibro térmico el factor de Boltzmann penaliza a los microestados de mayor energía, lo que implica que sean muy poco probables haciendo que la entropía sea finita. Pero no es posible describir con un espacio vectorial de dimensión finita de forma realista todos los sistemas cuánticos que nos rodean en el universo, sino sólo aspectos concretos del mismo de interés para la física aplicada. Estos espacios de dimensión finita no nos sirven para entender la física a nivel fundamental.
En cuanto al argumento de que los constituyentes fundamentales de la naturaleza son partículas, entes discretos, de nuevo surge de la confusión de utilizar un nombre inapropiado. El concepto fundamental en física de partículas no es el de partícula, sino el de campo cuántico. Los campos cuánticos son entes continuos que cubren todo el espaciotiempo. Por ejemplo, los electrones no son más que las excitaciones discretas de un campo "electrónico", los fotones del campo electromágnético, los quarks up son excitaciones de otro campo, etc. Al tratarse de vibraciones ligadas de los campos, éstas son discretas, por el mismo mecanismo por el que emerge la discretitud que hemos explicado antes. Es decir, el concepto de partícula es un concepto emergente. De hecho, en un estado genérico de estos campos ni siquiera el número de partículas, que es un observable mecanocuántico, toma un valor bien definido. Todo sistema físico puede estar, y de hecho de forma genérica está, en un estado cuántico que es superposición de estados que tienen distinto número de electrones. Es decir, las partículas discretas no son más que la manifestación de un espectro discreto de un observable definido de forma continua en mecánica cuántica.
Alguien podría decir "Sí, claro, pero aunque que el número de electrones sea discreto es un fenómeno emergente de la mecánica cuántica, que es continua, es un hecho que el número de tipos de partículas que hay en la naturaleza es discreto". En efecto, el modelo estándar de la física de partículas contiene 6 leptones, 6 quarks, los bosones que median las interacciones gauge y el bosón de Higgs. A energías más altas esperamos encontrar más tipos nuevos de partículas, pero, aunque sean infinitas, el número seguirá siendo infinito numerable. Lo que a lo mejor muchos no saben es que esto es una predicción de la teoría de cuerdas que surge precisamente al llevar a cabo la cuantización de la cuerda. Cada tipo de partícula no es más que un modo distinto de vibración de la cuerda y el mismo mecanismo que genera discretitud en el ejemplo citado anteriormente de difracción por una rendija es el que hace que los distintos tipos de particula en los que se puede comportar la cuerda sean discretos. Hasta el hecho de que en la naturaleza hayamos encontrado un número discreto de tipos de particulas es una consecuencia de hacer la transformada de Fourier de algo compacto.
Tiene razón Jesús Bonilla en su intervención en el podcast de que hay que ir al nivel más fundamental posible. Y cada vez que profundizamos más en entender la naturaleza en este sentido, lo que ocurre es que los objetos fundamentales con los que trabaja la física cada vez se vuelven más continuos y geométricos. La física sólo es discreta cuando la describimos de manera superficial, que es lo que se hace las clases de enseñanza secundaria (ESO y Bachillerato).
Tiene razón Jesús Bonilla en su intervención en el podcast de que hay que ir al nivel más fundamental posible. Y cada vez que profundizamos más en entender la naturaleza en este sentido, lo que ocurre es que los objetos fundamentales con los que trabaja la física cada vez se vuelven más continuos y geométricos. La física sólo es discreta cuando la describimos de manera superficial, que es lo que se hace las clases de enseñanza secundaria (ESO y Bachillerato).
Otro aspecto importante que hay que señalar es que el hecho de que en la naturaleza exista la escala de Planck no significa que el espacio-tiempo tenga que ser discreto. Para ello es necesario comprender de dónde viene la escala de Planck, y para eso vamos a dedicar un un par de párrafos.
En teoría cuántica de campos locales, por ejemplo, en el caso más simple, el campo de Klein Gordon, la amplitud de probabilidad de que una partícula de masa $m$ se propague, desde un suceso de espaciotiempo hasta otro desconectado causalmente del primero, decrece a grandes distancias como la exponencial decreciente
$$
e^{-mcr/\hbar}
$$
donde $r$ es la distancia entre ambos sucesos en el sistema de referencia en el que ambos ocurren simultáneamente. Esta amplitud de propagación no es cero, pero esto no supone una violación del principio de velocidad máxima de propagación de las interacciones, ya que se puede demostrar que una medición llevada a cabo en el primer suceso espaciotemporal no afecta a una segunda medición llevada a cabo en el segundo suceso. Lo que esta exponencial decreciente nos está diciendo es que existe una correlación entre esos dos puntos separados una distancia $r$, correlación que sólo se hace despreciable si esa distancia $r$ es muy superior a
$$
\lambda = \frac{\hbar}{mc}
$$
Es decir, las partículas sólo se pueden considerar como entes localizados en un punto concreto del espacio si nuestros detectores no son capaces de detectar variaciones espaciales de tamaño del orden de magnitud de $\lambda$. Este es el motivo por el que a $\lambda$ se la denomina el "tamaño cuántico de la partícula". Nótese que cuanto mayor sea la masa de una partícula, menor es su tamaño cuántico. También es importante señalar que lo que tenemos aquí es una exponencial decreciente, no una función que abruptamente pasa a valer cero a partir de un valor concreto $\lambda$.
Por otro lado, de la relatividad general sabemos que si conseguimos contraer, sin que cambie su masa, un objeto hasta un tamaño inferior al radio de Schwarzschild
$$
R_S=\frac{2GM}{c^2}
$$
entonces ese objeto se convierte en un agujero negro. Por eso al radio de Schwarzschild se le llama también el "tamaño gravitacional del objeto". Este tamaño gravitacional es proporcional a la masa del objeto. Imaginemos ahora que queremos crear un agujero negro de tamaño $10^{-40}$ metros. Si hacemos la cuenta, necesitamos coger una masa de unos $10^{14}$ veces la masa del protón y comprimirla hasta los $10^{-40}$ metros de radio. Pero por culpa de los efectos cuánticos no podemos hacer esto. Llegaría un momento en el que el tamaño de esa masa se haría más pequeño que el tamaño cuántico $\lambda$ asociado a esa masa. Por debajo de ese tamaño las partículas no están localizadas. Eso significa que el agujero negro más pequeño que podemos tener es el que tiene una masa que hace igual en orden de magnitud a su tamaño gravitacional y a su tamaño cuántico. Si igualamos $R_S=\lambda$, se obtiene que esa masa, denominada masa de Planck, debe ser de unas $10^{19}$ veces la masa del protón, y su tamaño, denominado longitud de Planck, de unos $10^{-35}$ metros. Por debajo de la masa de Planck las correcciones cuánticas afectan a un tamaño superior al radio de Schwarzschild, de tal forma que ya no podemos asegurar que lo que tenemos es un agujero negro porque la relatividad general deja de ser válida a esas distancias. A su vez, si queremos explorar distancias cada vez más pequeñas, necesitaríamos utilizar partículas elementales cada vez más localizadas, es decir, partículas elementales con cada vez más masa. Pero al superar la masa de Planck, que nos daría un tamaño cuántico inferior a la longitud de Planck, la partícula se convertiría en un agujero negro, su radio de Schwarzschild empezaría a crecer y ya no nos sería posible explorar esas distancias tan pequeñas. Es importante señalar que nos estamos refiriendo aquí a distancias propias, que son invariantes relativistas. Aunque en el sistema de referencia en el que dos sucesos ocurren simultáneamente la distancia entre ellos sea de tamaño superior a la longitud de Planck, en otro sistema de referencia esa distancia será menor, y puede perfectamente ser inferior a la longitud de Planck.
Una vez que tenemos claro qué es la longitud de Planck, podemos entender que el valor concreto de $10^{-35}$ metros es tan importante como cualquiera de las demás distancias del mismo orden de magnitud. No hay ningún cambio abrupto en ese valor concreto. A distancias propias de ese orden de magnitud la geometría clásica que describe la relatividad general deja de funcionar, pero eso no significa que las distancias se vuelvan discretas. El operador posición no tiene por qué pasar a tener un espectro discreto. De hecho, en el único marco consistente que tenemos ahora mismo para describir la naturaleza a esas distancias, la teoría de cuerdas, el espaciotiempo no se hace discreto a la escala de Planck. Lo que ocurre es que no es posible explorar esas distancias tan pequeñas porque no hay ningún objeto en la teoría (por ejemplo, partículas puntuales) capaces de explorarlas [Motl2009/09]. Esto hace que los intervalos, las superficies y los volúmenes no se puedan localizar a escala planckiana. Por ejemplo, en la compactificación del eje x que hemos mencionado antes cuanto más pequeña sea la longitud L del círculo mayor es la cantidad de movimiento de las cuerdas con $n$ no nulo (que viajan en esa dirección) y, por tanto, mayor es su energía. Pero entonces se hace menor la energía de las cuerdas enrolladas en ese círculo al estar menos "tensas", y se puede demostrar que esos modos de cuerdas enrolladas acaban jugando el mismo papel que jugaban las cuerdas que tenían cantidad de movimiento en esa dirección cuando $L$ era grande. Hay una dualidad entre ambas descripciones (denominada T-dualidad) que hace que los tamaños $L$ pequeños comparados con la longitud de Planck ni siquiera tengan significado físico, al ser duales con otros más grandes. Ambas situaciones describen la misma física.
Además de ser inconsistentes, otro problema que tienen los intentos de descripción del universo a la escala de Planck "alternativos" a la teoría de cuerdas mediante la introducción de discretitud en el espaciotiempo es que en ellos la simetría de Lorentz está rota, es decir, no son válidos los postulados de la relatividad especial a esa escala. De la misma manera que al discretizar el espacio estamos rompiendo la simetría de rotación, al discretizar el espaciotiempo rompemos la simetría de rotaciones hiperbólicas (transformaciones de Lorentz), que es la que garantiza que se cumpla el principio de relatividad y el de localidad. Esto es algo que se hace en las simulaciones de la teoría cuántica de campos en el retículo, y no supone ningún problema siempre que estudiemos fenómenos cuyas distancias características sean muy superiores al tamaño del retículo con el que discretizamos el espaciotiempo. Sin embargo, este tipo de modelos tienen dos dificultades. La primera podría ser salvable, pero la segunda no lo es:
Sorprende entonces que el "divulgador científico" Javier Santaolalla, en un vídeo titulado "¿Cómo sabemos si vivimos en una simulación?", que tiene en estos momentos casi medio millón de visitas en Youtube, afirme que "Las leyes de la física podrían ser fácilmente programadas en un ordenador. Desde la llegada de la cuántica hemos abandonado un universo de naturaleza continua, que muestra un comportamiento discreto para cosas como la energía, pero también posiblemente para el espacio y el tiempo. Vivimos en un mundo discreto, con valores discontinuos para las magnitudes, tal y como lo haría un programa informático". Lo extraño aquí no es que Javier Santaollana no entienda la mecánica cuántica. La mayoría de la población mundial no la entiende porque nunca la ha estudiado, y no pasa nada. Lo que no me cabe en la cabeza es que tenga la cara dura de hacer vídeos sobre mecánica cuántica y colgarlos en Youtube sin antes preguntar a un experto. Y del hecho de estar ganando dinero por crear material erróneo sobre física, que para la único que sirve es para confundir a los estudiantes, mejor no pongo adjetivos.
En teoría cuántica de campos locales, por ejemplo, en el caso más simple, el campo de Klein Gordon, la amplitud de probabilidad de que una partícula de masa $m$ se propague, desde un suceso de espaciotiempo hasta otro desconectado causalmente del primero, decrece a grandes distancias como la exponencial decreciente
$$
e^{-mcr/\hbar}
$$
donde $r$ es la distancia entre ambos sucesos en el sistema de referencia en el que ambos ocurren simultáneamente. Esta amplitud de propagación no es cero, pero esto no supone una violación del principio de velocidad máxima de propagación de las interacciones, ya que se puede demostrar que una medición llevada a cabo en el primer suceso espaciotemporal no afecta a una segunda medición llevada a cabo en el segundo suceso. Lo que esta exponencial decreciente nos está diciendo es que existe una correlación entre esos dos puntos separados una distancia $r$, correlación que sólo se hace despreciable si esa distancia $r$ es muy superior a
$$
\lambda = \frac{\hbar}{mc}
$$
Es decir, las partículas sólo se pueden considerar como entes localizados en un punto concreto del espacio si nuestros detectores no son capaces de detectar variaciones espaciales de tamaño del orden de magnitud de $\lambda$. Este es el motivo por el que a $\lambda$ se la denomina el "tamaño cuántico de la partícula". Nótese que cuanto mayor sea la masa de una partícula, menor es su tamaño cuántico. También es importante señalar que lo que tenemos aquí es una exponencial decreciente, no una función que abruptamente pasa a valer cero a partir de un valor concreto $\lambda$.
Por otro lado, de la relatividad general sabemos que si conseguimos contraer, sin que cambie su masa, un objeto hasta un tamaño inferior al radio de Schwarzschild
$$
R_S=\frac{2GM}{c^2}
$$
entonces ese objeto se convierte en un agujero negro. Por eso al radio de Schwarzschild se le llama también el "tamaño gravitacional del objeto". Este tamaño gravitacional es proporcional a la masa del objeto. Imaginemos ahora que queremos crear un agujero negro de tamaño $10^{-40}$ metros. Si hacemos la cuenta, necesitamos coger una masa de unos $10^{14}$ veces la masa del protón y comprimirla hasta los $10^{-40}$ metros de radio. Pero por culpa de los efectos cuánticos no podemos hacer esto. Llegaría un momento en el que el tamaño de esa masa se haría más pequeño que el tamaño cuántico $\lambda$ asociado a esa masa. Por debajo de ese tamaño las partículas no están localizadas. Eso significa que el agujero negro más pequeño que podemos tener es el que tiene una masa que hace igual en orden de magnitud a su tamaño gravitacional y a su tamaño cuántico. Si igualamos $R_S=\lambda$, se obtiene que esa masa, denominada masa de Planck, debe ser de unas $10^{19}$ veces la masa del protón, y su tamaño, denominado longitud de Planck, de unos $10^{-35}$ metros. Por debajo de la masa de Planck las correcciones cuánticas afectan a un tamaño superior al radio de Schwarzschild, de tal forma que ya no podemos asegurar que lo que tenemos es un agujero negro porque la relatividad general deja de ser válida a esas distancias. A su vez, si queremos explorar distancias cada vez más pequeñas, necesitaríamos utilizar partículas elementales cada vez más localizadas, es decir, partículas elementales con cada vez más masa. Pero al superar la masa de Planck, que nos daría un tamaño cuántico inferior a la longitud de Planck, la partícula se convertiría en un agujero negro, su radio de Schwarzschild empezaría a crecer y ya no nos sería posible explorar esas distancias tan pequeñas. Es importante señalar que nos estamos refiriendo aquí a distancias propias, que son invariantes relativistas. Aunque en el sistema de referencia en el que dos sucesos ocurren simultáneamente la distancia entre ellos sea de tamaño superior a la longitud de Planck, en otro sistema de referencia esa distancia será menor, y puede perfectamente ser inferior a la longitud de Planck.
Una vez que tenemos claro qué es la longitud de Planck, podemos entender que el valor concreto de $10^{-35}$ metros es tan importante como cualquiera de las demás distancias del mismo orden de magnitud. No hay ningún cambio abrupto en ese valor concreto. A distancias propias de ese orden de magnitud la geometría clásica que describe la relatividad general deja de funcionar, pero eso no significa que las distancias se vuelvan discretas. El operador posición no tiene por qué pasar a tener un espectro discreto. De hecho, en el único marco consistente que tenemos ahora mismo para describir la naturaleza a esas distancias, la teoría de cuerdas, el espaciotiempo no se hace discreto a la escala de Planck. Lo que ocurre es que no es posible explorar esas distancias tan pequeñas porque no hay ningún objeto en la teoría (por ejemplo, partículas puntuales) capaces de explorarlas [Motl2009/09]. Esto hace que los intervalos, las superficies y los volúmenes no se puedan localizar a escala planckiana. Por ejemplo, en la compactificación del eje x que hemos mencionado antes cuanto más pequeña sea la longitud L del círculo mayor es la cantidad de movimiento de las cuerdas con $n$ no nulo (que viajan en esa dirección) y, por tanto, mayor es su energía. Pero entonces se hace menor la energía de las cuerdas enrolladas en ese círculo al estar menos "tensas", y se puede demostrar que esos modos de cuerdas enrolladas acaban jugando el mismo papel que jugaban las cuerdas que tenían cantidad de movimiento en esa dirección cuando $L$ era grande. Hay una dualidad entre ambas descripciones (denominada T-dualidad) que hace que los tamaños $L$ pequeños comparados con la longitud de Planck ni siquiera tengan significado físico, al ser duales con otros más grandes. Ambas situaciones describen la misma física.
Además de ser inconsistentes, otro problema que tienen los intentos de descripción del universo a la escala de Planck "alternativos" a la teoría de cuerdas mediante la introducción de discretitud en el espaciotiempo es que en ellos la simetría de Lorentz está rota, es decir, no son válidos los postulados de la relatividad especial a esa escala. De la misma manera que al discretizar el espacio estamos rompiendo la simetría de rotación, al discretizar el espaciotiempo rompemos la simetría de rotaciones hiperbólicas (transformaciones de Lorentz), que es la que garantiza que se cumpla el principio de relatividad y el de localidad. Esto es algo que se hace en las simulaciones de la teoría cuántica de campos en el retículo, y no supone ningún problema siempre que estudiemos fenómenos cuyas distancias características sean muy superiores al tamaño del retículo con el que discretizamos el espaciotiempo. Sin embargo, este tipo de modelos tienen dos dificultades. La primera podría ser salvable, pero la segunda no lo es:
- sólo hay un tipo de teorías cuánticas de campos efectivas a baja energía que no sabemos como simular correctamente en el retículo. Se trata de las teorías quirales, que en el retículo adolecen del problema de la duplicidad de fermiones. Y precisamente el Modelo Estándar es quiral, ya que sólo los fermiones "zurdos" experimentan la interacción débil. El hecho de que nadie sepa como formular una versión discreta del Modelo Estándar significa que nadie sabe cómo formular una versión discreta de las leyes de la física. Merece la pena considerar la posibilidad de que las dificultades que nos estamos encontrando para poner fermiones quirales en el retículo nos estén dando el importante mensaje de que las leyes de la física no son, en el nivel más fundamental, discretas [Tong2011].
- si el espaciotiempo fuera discreto a la escala de Planck, esa violación de las leyes de la relatividad debería notarse en que la velocidad de las partículas sin masa, por ejemplo los fotones, no sería exactamente c, como sí ocurre si la relatividad es exacta. Esa velocidad dependería de la energía de esas partículas, de tal manera que dos fotones de distinta energía emitidos a la vez en un mismo evento astrofísico lejano no llegarían a la vez a la Tierra. Aunque se trate de una violación de las leyes de la relatividad sólo a la escala de Planck y, por tanto, dé lugar a una variación pequeña en las velocidades de fotones de energías que varían en decenas de GeV, al acumularse sobre distancias cosmológicas ese efecto se debería notar en los brotes de rayos gamma que detectan nuestros telescopios. Y la realidad es que eso no ocurre. No se ha encontrado ninguna señal de que se viole la invariancia de Lorentz a escalas del orden de magnitud de la de Planck. De hecho, lo que se tiene es lo contrario: a la escala de Planck la invariancia de Lorentz no se viola [Abdo2009, Stecker2011], lo que nos permite descartar cualquier teoría en la que el espaciotiempo deje de ser continuo a la escala de Planck [Motl2009/08].
Sorprende entonces que el "divulgador científico" Javier Santaolalla, en un vídeo titulado "¿Cómo sabemos si vivimos en una simulación?", que tiene en estos momentos casi medio millón de visitas en Youtube, afirme que "Las leyes de la física podrían ser fácilmente programadas en un ordenador. Desde la llegada de la cuántica hemos abandonado un universo de naturaleza continua, que muestra un comportamiento discreto para cosas como la energía, pero también posiblemente para el espacio y el tiempo. Vivimos en un mundo discreto, con valores discontinuos para las magnitudes, tal y como lo haría un programa informático". Lo extraño aquí no es que Javier Santaollana no entienda la mecánica cuántica. La mayoría de la población mundial no la entiende porque nunca la ha estudiado, y no pasa nada. Lo que no me cabe en la cabeza es que tenga la cara dura de hacer vídeos sobre mecánica cuántica y colgarlos en Youtube sin antes preguntar a un experto. Y del hecho de estar ganando dinero por crear material erróneo sobre física, que para la único que sirve es para confundir a los estudiantes, mejor no pongo adjetivos.
¿Cómo puede la física estar basada en números que no son computables?
Alguien podría argumentar que aunque la física a nivel teórico esté basada en números reales y complejos, que no son computables, en realidad
- (objeción 1) todas las mediciones que se realizan dan como resultado un número discreto, ya que éste tiene necesariamente que ser múltiplo de la sensibilidad del aparato.
- (objeción 2) existe la posibilidad de que todo lo que pueden hacer en realidad tanto los físicos como los matemáticos en sus cálculos y en las demostraciones de sus teoremas es trabajar con números computables. Si esto es así, nos creemos que estamos trabajando con el continuo, pero en realidad lo que estamos haciendo es trabajar con secuencias finitas de símbolos que se refieren al continuo [Aaronson2013].
- (respuesta a la objeción 1) Una cosa son los datos experimentales, que son discretos, y otra bien distinta las teorías científicas. Los primeros no son anteriores a las segundas. No hay experimento sin teoría previa, que es la que da significado a esos datos. En función de los resultados de los experimentos, que pueden confirmar o refutar lo que se esperaba, los científicos van cambiando esas teorías, que forman un edificio de conocimientos que es como un campo, sólo con la restricción que impone la consistencia matemática y las condiciones de frontera que fijan los resultados experimentales. Esa estructura está basada en primeros principios, que pueden estar bastante alejados de esa frontera. De hecho, no es necesario que todo en una teoría tenga que ser medible o estar directamente conectado con la experiencia. Los científicos no trabajan así.
- (respuesta a la objeción 2) Es verdad que en realidad lo que hacemos los físicos y los matemáticos es trabajar con secuencias finitas de símbolos que se refieren al continuo. Incluso cuando hablamos sobre intervalos de números reales, que contienen un número infinito no numerable de números reales, no tenemos más remedio que especificar los extremos del mismo mediante una secuencia finita de símbolos. Este es el motivo por el que, en realidad, los números reales que están bien definidos forman un conjunto numerable, y esto hace que el hecho de que los números reales sean no numerables sea considerado por los físicos más una "curiosidad lingüística" que algo relevante para entender el universo. Pero no poder hablar más que de secuencias finitas de símbolos no implica que la matemática discreta tenga que ser la base de la física. Sigue siendo importante qué estamos diciendo en concreto sobre esas secuencias finitas de símbolos. Y cuando hacemos física organizamos esas secuencias discretas de tal manera que se refieran a propiedades de objetos continuos, que, como hemos visto, son los fundamentales en física. Es decir, aunque es verdad que todos los lenguajes, humanos y de computadoras, utilizan símbolos discretos, la naturaleza está fundamentalmente basada en primeros principios que son continuos. La física teórica no se puede reducir a cantidades computables, ya que en ella es fundamental el significado de lo que se está diciendo [Motl2013/04].
¿Y si el conocimiento colectivo que tenemos de las leyes de la física no es tal, sino que nos lo han implementado en nuestro cerebro?
Como señala Jesús Bonilla en el podcast, una cosa es discutir si tenemos herramientas que nos permitan descartar que todo el universo observable es fruto de una simulación (y hemos visto que sí las tenemos), y otra distinta es discutir, en el caso de que seamos cerebros en un contenedor, si podemos ser capaces de darnos cuenta de que lo que nos llega es sólo información que nada tiene que ver con la realidad. En este segundo caso, que es como se planteó el debate, como explica José María Martínez, una persona que siempre haya vivido en Matrix nunca va a tener los elementos para comparar con la realidad, con lo que ni siquiera es necesario que la simulación sea muy realista.
Es cierto, como señala Álvaro Rodríguez en el podscast, que con una enorme capacidad de cómputo se podría engañar a un cerebro para que pensara que el universo simulado es la realidad. Aunque es necesaria una enorme capacidad de cómputo, no es necesario simular todo el universo, sino sólo aquellas partes con las que ese sujeto está interaccionando, al igual que los videojuegos no procesan aquellos elementos que el jugador no tiene delante.
Está claro que usted, querido lector, no ha realizado personalmente todos los experimentos que dan soporte confirmatorio a las teorías físicas actuales. Además, incluso aunque usted sea un experto en física de altas energías, usted no domina ni toda la física ni todas las matemáticas. Gran parte de las cosas que usted cree se basan en la confianza en muchas figuras de autoridad. Por ejemplo, a no ser que usted sea uno de los matemáticos que se ha estudiado en detalle la demostración de Andrew Willes del último teorema de Fermat, su confianza en el mismo se basa, no sólo en que la aritmética sea consistente, sino también en que estos matemáticos son personas reales y buenos profesionales que le están diciendo la verdad. Pero podrían ser elementos de la simulación. Es más, como señaló el científico y filósofo hungaro-británico Michael Polanyi, la mayor parte de nuestro conocimiento, incluso aunque seamos expertos, es tácito, es decir, ha sido adquirido implícitamente y de forma no sistematizada [Polanyi1958]. Descartes tenía razón en que, por muy sistemático y crítico que sea usted, no está a salvo de los engaños del demonio maligno. Desde este punto de vista no nos sirve de nada el haber analizado las leyes de la física para ver si son discretas o continuas. El filósofo australiano David Chalmers ha sintetizado esta idea con la frase "Nunca vamos a poder conseguir una prueba definitiva de que no vivimos en una simulación porque cualquier prueba de esas características podría ser simulada" [Chalmers2016].
No podemos, por tanto, descartar la premisa 1, y volvemos al punto de partida. El argumento escéptico nos lleva a una conclusión absurda. ¿Cómo no vamos a saber que la pantalla que tenemos delante es real? Tiene que haber algo mal en las premisas, pero no encontramos qué está mal.
No tan deprisa. Si Descartes se levantara de su tumba y tuviera la oportunidad de contestar a Moore, seguramente explicaría que la conclusión de su argumento escéptico no es absurda, porque la conclusión no es que la pantalla que usted está viendo no sea real. La conclusión es que usted no sabe que es real. Aunque la pantalla sea real, eso no significa que al menos una de las premisas sea falsa. Lo que estamos haciendo aquí es tratar de entender qué es el conocimiento, y lo que el argumento escéptico nos está diciendo es que adquirir nuevo conocimiento es un proceso muy difícil. En un artículo anterior hemos visto cuales son las condiciones que se tienen que satisfacer, como mínimo, para poder decir que sabemos algo:
- 1- Que estemos convencidos de que ese algo es verdad.
- 2- Que, en efecto, ese algo sea verdad.
- 3- Que nuestro convencimiento de que ese algo es verdad tenga una justificación racional.
- 4- Que no hayamos llegado a esa conclusión partiendo de una creencia falsa.
- 5- El hecho de que estamos seguros de eso es sensible a la verdad en el sentido de que, si no se hubiera dado el caso de que ese algo fuera verdad, no pensaríamos que es verdad.
- 6- Nuestras predicciones sobre ese asunto son, en su mayor parte, acertadas.
- 7- El método utilizado con el que hemos llegado a esa conclusión ha de ser fiable.
Conclusión
Vamos a tener que darle la razón a Descartes. En estricto rigor, no sabemos apenas nada sobre el mundo. Pero hemos visto que esta conclusión es menos impactante de lo que parecía al principio. Aunque este asunto preocupó bastante a Descartes, hasta el punto de que tratar de resolver este problema condicionó completamente toda su filosofía, es perfectamente natural asumir que el conocimiento, en rigor, es algo muy difícil de poseer.
Pero esto no significa que el conocimiento sea un ideal irrealizable e inútil. Podemos y debemos entender las 7 condiciones necesarias del conocimiento como requisitos, no para poder decir que poseemos conocimiento de algo, sino para averiguar si ese conocimiento es de calidad, ya que estas condiciones poseen distintos grados de cumplimiento. Este es el motivo por el que el conocimiento científico bien establecido es riguroso, a pesar del argumento escéptico de Descartes. La diferencia entre el conocimiento científico y otros cuerpos de creencias menos fiables muchas veces no es de naturaleza, sino de grado. Y en este sentido sí podemos decir que confiamos en nuestros conocimientos de física mejor establecidos, conocimientos que sí nos permiten descartar que vivamos en una simulación informática, ya que las leyes y principios que gobiernan el comportamiento del universo son de naturaleza continua, no discreta. De acuerdo con estos principio, la presencia de algunas estructuras discretas en la naturaleza es, en todos los casos, o bien una ilusión, o bien un fenómeno emergente. No hay rastro de ninguna realidad digital subyacente. No existen los bits fundamentales.
Hemos visto que la mecánica cuántica nos genera un trampantojo inverso similar, ya que, mediante el mecanismo de las interferencias y a partir de sistemas físicos continuos, genera autovalores discretos, cuantizados, provocando al ser humano la ilusión de que el mundo que percibimos es una especie de simulación informática de la realidad, cuando se trata de la realidad misma.
Esta conclusión no debería sorprender a nadie con conocimientos de física. En un universo simulado la programadora tiene bastante libertad para establecer las reglas que le dé la gana. Sin embargo, los principios fundamentales, tanto de la mecánica cuántica como de la relatividad especial, son bastante restrictivos (por ejemplo, en el nivel mínimo de energía en el átomo de hidrógeno el electrón no pude estar localizado, la simetría de Lorentz no puede estar rota y el tiempo propio entre dos sucesos siempre tiene que ser el más pequeño de todos). Y además, estos principios son todavía más restrictivos cuando los combinamos en la teoría cuántica de campos (por ejemplo, a cada partícula le tiene que corresponder una antipartícula). Si, además, queremos introducir la interacción gravitatoria de forma consistente, aparecen una serie de restricciones todavía mayores que automáticamente expulsan del mercado a la mayoría de teorías cuánticas de campos efectivas a baja energía (por ejemplo, no puede haber simetrías globales que no estén ni rotas ni gaugeadas) [Brennan2017]. La arbitrariedad de un programa informático no casa bien con la potencia que ha demostrado tener la estrategia de estructurar el pensamiento filosófico y científico en base a primeros principios desde la época de los filósofos presocráticos. Un conjunto de elementos discretos que interaccionan entre ellos de forma discreta no puede satisfacer estos principio, ya que en él hay demasiadas reglas posibles que se pueden establecer. Esto haría que la física a nivel fundamental estuviera al margen de estos principios, y sería necesario un número infinito de milagros para que una teoría arbitraria de este tipo, programada a escala mucho más alta que la escala de Planck, diera como resultado que todos estos principios se cumpliesen a baja energía. Con teorías basadas en objetos continuos que están restringidos mediante principios continuos, en cambio, ocurre todo lo contrario. El número de posibilidades se reduce tanto que es hasta posible que sólo haya una solución [Motl2011].
Por tanto, el argumento escéptico de Descartes, ni siquiera en su versión sofísticada del cerebro en un contenedor conectado a una simulación informática, consigue suponer un problema epistemológico de envergadura. No merece la pena dedicar más líneas a este asunto. Sin embargo, un tipo de escepticismo más peligroso para nuestra confianza incluso en el conocimiento científico mejor establecido es el que afirma, no que no tengamos conocimiento del universo, sino ni siquiera tenemos sólidos cimientos sobre los que establecer nuestra confianza en lo que ocurre en el mundo. Pero este es otro tema, que tratamos en otro artículo.
Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.
Referencias bibliográficas
- Aaronson, Scott (2013) "Gödel, Turing and friends" in Quantum Computing Since Democritus. Cambridge University Press. ISBN-13: 978-052178649.
- Abdo A. A., Ackermann M., Ziegler M. (2009). "A limit on the variation of the speed of light arising from quantum gravity effects". Nature volume 462, pages 331–334 (19 November 2009).
- Brennan, T. Daniel; Carta, Federico; Vafa, Cumrun. (2017) 'The String Landscape, the Swampland, and the Missing Corner'. eprint arXiv:1711.00864
- Bostrom N. (2003). "Are you living in a quantum computer simulation?". Philosophical Quarterly (2003) Vol. 53, No. 211, pp. 243‐255.
- Chalmers D. J. (2003). "The Matrix as Metaphysics". Dept of Philosophy, U. of Arizona; paper written for the philosophy section of The Matrix website.
- Chalmers (2016) "We're not going to get conclusive proof that we're not in a simulation, because any proof would be simulated," In Isaac Asimov Memorial Debate: Is the universe a simulation? https://www.ivoox.com/2016-isaac-asimov-memorial-debate-is-the-universe-audios-mp3_rf_11124702_1.html
- Descartes, René (2003) [1637]: Discurso del método; estudio preliminar, traducción y notas de Bello Reguera, E.; ed. Tecnos, Madrid, 2003.
- Descartes, René (2011) [1641, 1647]. Méditations sur la philosophie première. Édition électronique, v.: 1,0 : Les Échos du Maquis.
- Fredkin (1992) "Finite Nature". Progress in atomic physics, neutrinos and gravitation. Proceedings, 27th Rencontres de Moriond, 12th Moriond Workshop, Les Arcs, France, January 25 - February 1, 1992.
- Gödel, K. (1992) [1931] On Formally Undecidable Propositions of Principia Mathematica and Related Systems. New York: Dover, 1992.
- Hare C. (2013), "Skepticism about knowledge", in 24.00x Introduction to Philosophy: God, Knowledge, and Consciousness, MITx.
- Moore, G. E. (1939). “Proof of an External World.” Proceedings of the British Academy, 25, 273-300.
- Motl, Lubos (2009/08). "Fermi kills all Lorentz-violating theories". TRF.
- Motl, Lubos (2009/09). "Myths about the minimal length". TRF.
- Motl, Lubos (2011). "Rebooting the cosmos?". TRF.
- Motl, Lubos (2013/03). "We don't live in a simulation". TRF.
- Motl, Lubos (2013/04). "Scott Aaronson: a prototype of some confusion of IT scientists about physics". TRF.
- Nozick, R. (1981). Philosophical Explanations. Oxford University Press.
- Polanyi, M. 2012 [1958]. Personal Knowledge: Towards a Post-Critical Philosophy. University of Chicago Press.
- Stecker F. W. (2011) "A New Limit on Planck Scale Lorentz Violation from Gamma-ray Burst Polarization,'' Astropart. Phys. 35 (2011) 95. doi:10.1016/j.astropartphys.2011.06.007 [arXiv:1102.2784 [astro-ph.HE]].
- Tong D. (2011) "Physics and the Integers". FQXi Essay Contest 2011: Is Reality Digital or Analog?