1 ago 2022

1+1 no es igual a 2

Los que nos dedicamos a la enseñanza estamos ya bastante hartos de recibir la acusación de que las enseñanzas que proporciona la escuela son demasiado teóricas e irreales. Nos dicen que, en el tecnificado mundo actual, una educación más orientada hacia lo práctico, en el que las humanidades, las artes y la parte teórica de las ciencias de la naturaleza jueguen un papel secundario, pudiera preparar para la vida de modo mucho más adecuado. Nos dicen también que no se debería apenas invertir dinero en investigación básica, sino en aquellas investigaciones que tiene como objetivo resolver problemas reales. Se trata de una visión miope de la realidad en la que están atrapados algunos de los que han recibido formación excesivamente aplicada en campos, como la ingeniería, la administración de empresas o el derecho, y no han podido disfrutar del trasfondo teórico de su disciplina.


Es necesario tener claro que ciencias, artes y humanidades no son cosas distintas. Cuando hablamos de humanidades (por ejemplo, la literatura, el arte, la política, la economía), hablamos de cosas que hace el ser humano, a diferencia de los procesos de la naturaleza. Pero resulta que la ciencia también es una humanidad, porque la ciencia la hace el ser humano. La ciencia estudia la naturaleza, pero es una disciplina humanística. Los científicos debemos vernos a nosotros mismos y ser vistos como humanistas, porque es lo que somos, aunque nuestro objeto de estudio no sea el ser humano. Y también debemos vernos como artistas, porque ¿qué son el planteamiento de preguntas, la emisión de hipótesis, la construcción de sistemas teóricos y el diseño de experimentos científicos, sino procesos creativos?

Dado que no son muy conocidas, voy a citar aquí las palabras que escribió sobre este asunto Werner Heisenberg, el físico más brillante de todos los padres de la mecánica cuántica, en su obra La imagen de la naturaleza en la física actual (actual de 1955, claro está). En esta obra Heisenberg reconoce que la formación humanística que recibió fue fundamental para el desarrollo de su actividad científica. Dice Heisenberg:
"toda la energía de nuestra cultura occidental procede y procedió siempre del estrecho enlace de las cuestiones de principio con la actuación práctica. En el dominio meramente práctico, otros pueblos y otras culturas alcanzaron un saber equiparable al de los griegos. En cambio, lo que desde el primer instante distinguió al pensamiento griego de los de otros pueblos fue la aptitud para retrotraer todo problema a una cuestión de principios teóricos, alcanzando así puntos de vista desde los cuales fue posible ordenar la policroma diversidad de la experiencia y hacerla asimilable por el intelecto del ser humano. [...] leer a los griegos significa ejercitarse en el uso de la más poderosa herramienta intelectual que el pensamiento del occidente ha conseguido crear. En este sentido, puede decirse que la educación humanística proporciona también un saber muy útil" [Heisenberg1955].

Dejando a un lado la obsoleta visión eurocéntrica de Heisenberg, me gustaría señalar que el físico alemán sí da en la clave en este texto sobre el motivo por el que ha sido tan fructífero el pensamiento filosófico y científico desde su nacimiento. Desgraciadamente, muchas personas todavía desconocen la importancia de la articulación de este pensamiento en base a primeros principios, y quieren encajonar nuestro conocimiento actual en una simple colección de hechos.

Una de las cosas que estas personas ignoran es que los primeros principios no son acumulativos. Si a un principio de la física teórica le sumamos otro, el resultado no es simplemente dos principios. Si estos principios son incompatibles, el resultado es nada. Pero, si estos dos principios en última instancia se pueden reconciliar, la historia de la ciencia nos dice que esta reconciliación, cuando es no trivial, implica puntos de vista nunca antes vistos que nos llevan a nuevos principios y procesos físicos que inicialmente no parecían ser consecuencia de esos 1+1 principios iniciales. En este caso, la suma 1+1 no es igual a 2, sino una obra de arte intelectual muchísimo mayor.


Un primer ejemplo que nos sirve para ilustrar esta tesis es el nacimiento de la relatividad. Una de las consecuencias más impactantes de los postulados de la relatividad especial es que nos obligan a cambiar radicalmente nuestro concepto de simultaneidad. Dos sucesos que son simultáneos en un sistema de referencia inercial dejan de serlo en todos los demás sistemas de referencia inerciales. Con la relatividad la simultaneidad deja de ser una relación objetiva entre sucesos, como se pensaba anteriormente, para convertirse en una relación entre dos o más sucesos y un observador. Es decir, los principios de la física adquieren un papel fundamental, muy por encima de otros supuestos de sentido común que nadie cuestionaba hasta ese momento. Para salvar al principio de relatividad y a la constancia de la velocidad de la luz que predicen las ecuaciones de Maxwell, es necesario cargarse el sagrado concepto de tiempo absoluto. También es necesario aceptar otros hechos sorprendentes como, por ejemplo, la equivalencia entre masa y energía.

  

La forma en que Einstein llegó a esa conclusión acerca de la simultaneidad impresionó profundamente al físico estadounidense, y posterior ganador del premio Nobel de Física, P. W. Bridgman. Einstein había analizado las operaciones involucradas en determinar si dos eventos son simultáneos o no. Haciendo esto se dio cuenta de que juzgar esto presupone cierta transferencia de información mediante el envío de señales desde los sucesos hasta el observador. Inspirado por eso, Bridgman se convenció de que sólo son conceptos científicos adecuados aquellos que puedan conectarse con procedimientos instrumentales que determinen su valor. A esta corriente filosófica se la denomina operacionalismo. Bridgman declaró que son las operaciones mediante las cuales se puede medir un concepto científico las que le dan su significado empírico, aunque admitía que esta conexión puede ser compleja. Todos los conceptos que no estén ligados a procedimientos de medición deben ser excluidos de la física.

El operacionalismo surge como un intento de evitar que los científicos vuelvan a cometer los errores del pasado de considerar conceptos o entes inexistentes como elementos de las teorías científicas. Además del concepto de simultaneidad como propiedad objetiva de algunos conjuntos de sucesos, el concepto del éter luminífero también entra en esta categoría. Si los científicos en el siglo XIX hubieran mantenido una actitud operacionalista no habrían caído en el error de asignar existencia al éter.

De hecho, en 1927 Bridgman llevó todavía más lejos el análisis operacional llegando a afirmar que el significado de un concepto no es sino las operaciones efectuadas para asignarle valores. Pero después de la Segunda Guerra Mundial empezó a matizar sus tesis operacionalistas aceptando como limitaciones del análisis operacional que es imposible especificar todas las circunstancias presentes cuando se lleva a cabo una operación y que no tenemos más remedio que aceptar algunas operaciones sin analizar.

Finalmente, acabó admitiendo que las teorías científicas posean elementos que no están conectados con la experiencia, porque se dio cuenta de que el criterio operacionalista era demasiado restrictivo para delimitar la ciencia de lo que no lo es. Si nos tomáramos al pie de la letra este criterio, habría que declarar a la mayor parte del conocimiento científico actual como "carente de significado". De hecho, los científicos a lo largo del siglo XX no han trabajado nunca de acuerdo con ese postulado operacionalista, característico de un positivismo extremo, sino con otro menos restrictivo:
  • "Si algo no se puede definir operacionalmente a partir de los "hechos" de la experiencia, entonces es perfectamente legítimo construir teorías en las que ese algo no tiene significado físico, pero no estamos obligados a ello."
Se trata de un postulado que te pone alerta sobre la posibilidad de que estés trabajando con entes que en realidad no existen, pero que te da la libertad necesaria para articular las teorías de forma que puedan desarrollarse y contrastarse con los experimentos.

La clave está  en que Einstein construyó tanto la relatividad especial como la general sobre el criterio de hacer que los principios fundamentales sean consistentes. Einstein llegó a la teoría especial de la relatividad de forma puramente teórica, como una forma de hacer consistente al electromagnetismo de Maxwell con el principio de relatividad. Análogamente, construyó la relatividad general como una forma de hacer consistente la relatividad especial con los fenómenos gravitatorios. Los físicos teóricos trabajan, desde entonces, de esa manera, metodología que constituye un ejemplo de lo que los filósofos de la ciencia llaman ahora unificación completa. Un ejemplo lo tenemos en el trabajo del filósofo británico Nicholas Maxwell (no confundir con el Maxwell del electromagnetismo) que sitúa a Einstein como paradigma de cómo debe ser un científico comprometido con la unificación completa, ya que éste utilizó este criterio tanto en la construcción directa de sus teorías como en la evaluación de las mismas. Para Nicholas Maxwell el empirismo con propósito unificador de Einstein constituye una forma más adecuada de evaluar las teorías que el empirismo estándar que habían defendido algunos filósofos de la ciencia. El mero acuerdo entre una teoría y los resultados experimentales no es suficiente para aceptar una teoría, tanto por la tesis de Duhem-Quine (siempre es posible salvar de la falsación a tu teoría favorita modificando los supuestos auxiliares) como por el hecho, señalado por Nelson Goodman, de que es posible inventar una gran cantidad de teorías inconsistentes entre ellas que se amolden a unos resultados experimentales dados. Dentro del empirismo estándar no hay forma racional de rechazar teorías ad hoc que estén acordes con los resultados experimentales, mientras que con el empirismo con propósito unificador de Einstein estas teorías pueden ser rechazadas si fracasan en la contribución al objetivo de la unificación completa.

La consistencia entre los principios fundamentales es ya tan importante en física como los resultados experimentales. Este empirismo con propósito unificador estuvo presente en todo el desarrollo de la física moderna durante todo el siglo XX y lo sigue estando en el siglo XXI. La unión de forma consistente de los principios de la relatividad especial y de la mecánica cuántica dio lugar al desarrollo de la teoría cuántica de campos, un marco todavía más restrictivo.

Pero, ¿de verdad son los principios de la relatividad y la mecánica cuántica compatibles entre sí? Sí lo son. El problema es que algunos "divulgadores" se dedican a confundir a los estudiantes diciendo que el entrelazamiento cuántico implica una forma de interacción a distancia instantánea, que es algo que prohibe el principio de localidad de la relatividad. Un ejemplo que tenemos en España es el de Arturo Quirantes, el "profe de física", que, además de desinformar a los alumnos criticando sin fundamento a la teoría de cuerdas, no tiene ningún problema en afirmar que la violación experimental de las desigualdades de Bell "nos dice que esa información se transmite de algún modo mediante una ‘acción fantasma’ a una velocidad prácticamente infinita, lo que viola tanto la relatividad como el principio de localidad” [Quirantes2015]. Por mucho que el señor Quirantes mienta acerca de la naturaleza de la mecánica cuántica, el entrelazamiento cuántico no implica ningún tipo de acción instantánea a distancia y la mecánica cuántica es perfectamente compatible con el principio de localidad.

Para hacer divulgación científica, y para poder enseñar, es condición necesaria, aunque no suficiente, entender las teorías que pretendes explicar. Llama mucho la atención que a Arturo Quirantes se le promocione tanto en los círculos autodenominados "escépticos" y "defensores del pensamiento crítico". Aunque esto no se aplica a todos, en esos grupos hay muchos individuos que no son escépticos, sino pseudoescépticos. Si el criterio para considerar a un profesor de física un buen divulgador es el número de veces que éste ha condenado la homeopatía, porque sólo una no nos vale, entonces existe el peligro de que sigamos viendo barbaridades como éstas con mucha visibilidad en las redes sociales durante mucho tiempo.

En un artículo anterior hemos visto las dificultades que surgen al tratar de cuantizar la partícula libre relativista. También hemos visto que la cuantización no es una receta infalible para obtener, a partir de una teoría clásica, su correspondiente descendiente cuántica. Es precisamente al revés: las teorías clásicas son límites de las cuánticas. Por eso, para obtener una teoría de las partículas elementales que sea, a la vez, cuántica y relativista, es mejor tratar de ver qué ligaduras nos impone el combinar ambos conjuntos de postulados. Los postulados de la relatividad y la mecánica cuántica son perfectamente compatibles, pero el combinarlos limita mucho cómo se comporta el universo y qué cosas existen en él.

Ya hemos indicado en el artículo anterior que el propagador de Feynman $D_F(x-y)$ que hemos obtenido al cuantizar la partícula libre relativista coincide con la función de Wightman $D(x-y)$ en el caso de que $x^0>y^0$, y con $D(y-x)$ en el caso de que $y^0>x^0$. En términos de la función escalón podemos escribir la relación entre ambas funciones mediante la expresión$$
D_F(x-y)=\theta(x^0-y^0)D(x-y)- \theta(y^0-x^0)D(y-x)
$$ Cuando los sucesos $x$ y $y$ están desconectados causalmente, seguimos teniendo el mismo problema de que la amplitud de probabilidad de que la partícula vaya de uno al otro sigue sin ser nula, problema que hemos visto que no tiene solución. Sin embargo, por lo menos ahora, con el propagador de Feynman, tenemos simetría bajo el intercambio entre los dos sucesos, cosa que no tiene la función de Wightman. Esta simetría es una condición necesaria para que la teoría sea invariante de Lorentz, ya que, como hemos explicado antes, cuando $x$ e $y$ están desconectados causalmente, un cambio de sistema de referencia invierte el orden temporal en el que ocurren estos sucesos.

Supongamos que tenemos una fuente que emite partículas con una amplitud de probabilidad $J_E(y)$ de emitir una partícula en la posición espaciotemporal $y$, y que también tenemos un detector de partículas con una amplitud de probabilidad $J_A(x)$ de absorber la partícula en el punto espaciotemporal $x$. Si la partícula se propaga libremente entre $y$ y $x$, podemos utilizar el propagador de Feynman para calcular la amplitud de probabilidad (a primer orden en teoría de perturbaciones para la fuente y el detector) para el proceso completo de emisión, propagación libre y absorción:$$
A_{EA}=\int d^4x\int d^4y J_E(y) J_A(x) D_F(x-y)
$$ Esta expresión es invariante Lorentz. Al descomponer el propagador de Feynman en términos de la función de Wightman (utilizando la función escalón $\theta(x^0-y^0)$), obtenemos $$
A_{EA}=\int d^4x\int d^4y \left[ J_E(y) J_A(x) \theta(x^0-y^0)D(x-y)- J_E(y) J_A(x) \theta(y^0-x^0)D(y-x)\right]
$$

Cuando estamos en un sistema de referencia en el que el suceso $x$ es posterior al suceso $y$, el término no nulo en esta expresión es el primero, donde $J_E(y)$ hace de amplitud de emisión y $J_A(x)$ de absorción. Sin embargo, cuando  estamos en un sistema de referencia en el que el suceso $y$ es posterior al suceso $x$, el término no nulo en esta expresión es el segundo, donde los roles de $J_E(y)$ y de $J_A(x)$ ¡están intercambiados! $J_A(x)$ hace de amplitud de emisión y $J_E(y)$ hace de absorción. La única forma de dar sentido a todo esto es aceptar un nuevo principio: en la teoría cuántica relativista que estamos tratando de crear ¡toda fuente de partículas debe también poder actuar como detector, absorbiéndolas, y todo detector que absorbe partículas debe poder también actuar como fuente, emitiéndolas! Es decir, en realidad lo que tenemos en este experimento mental es un único objeto que actúa a la vez como fuente y como sumidero, con la misma amplitud de probabilidad $J(x)$ para ambos procesos. La amplitud de probabilidad de todo el proceso se debe escribir, por tanto, de la forma [Banks2014]:$$
A_{EA}=\int d^4x\int d^4y \left[ J(y) J(x) \theta(x^0-y^0)D(x-y)- J(y) J(x) \theta(y^0-x^0)D(y-x)\right]=
$$ $$
=\int d^4x\int d^4y J(y) J(x) D_F(x-y)
$$ En otras palabras, en toda teoría cuántica y relativista sólo están permitidas las amplitudes cuánticas en las que ambas ordenaciones estén sumadas.

Este nuevo principio por sí solo no resuelve el problema que vimos en el artículo anterior de la propagación superlumínica de la amplitud de probabilidad ya que, como hemos explicado antes, al combinar los dos sumandos que forman parte del propagador de Feynman se obtiene un propagador que no es nulo fuera del cono de luz. Pero este principio sí nos asegura que la amplitud de probabilidad del proceso emisión+propagación libre+absorción no tenga ninguna discontinuidad cuando cambiamos el orden temporal de los dos sucesos espacialmente separados, algo que es condición necesaria para que la teoría sea invariante Lorentz. Diferentes observadores inerciales pueden no estar de acuerdo sobre en qué orden han ocurrido los sucesos $x$ e $y$, pero siempre estarán de acuerdo en los valores de todas las amplitudes de probabilidad sea cual sea la distribución de fuentes en el espaciotiempo.

De hecho, el problema de la propagación superlumínica de la función de onda no tiene solución, pero no importa. La función de onda no es un ente con existencia física. No es una onda clásica. Lo que importa, para no violar el principio de localidad de la relatividad, es que el conmutador de un observable local con otro que esté fuera del cono de luz del primero sea nulo, ya que ésta es la condición que garantiza que una medición del primer observable no afecte más rápido que la luz a los resultados de la medición del segundo observable. Y para que se cumpla esa condición se puede ver que la teoría tiene que tener ligaduras todavía más sorprendentes. Por ejemplo, también es necesario que exista la correspondiente antipartícula, con la misma masa y cargas opuestas, para cada una de las especies de partículas cargadas, y las probabilidades de los procesos que involucren a las antipartículas tienen que estar relacionadas con las probabilidades de los procesos asociados a las partículas. También tiene que ocurrir en determinadas circunstancias el fenómeno de la producción de pares partícula-antipartícula. La necesidad de la existencia de las antipartículas a partir de los primeros principios la explica muy bien Ángel Uranga en este vídeo:

Otra de las consecuencias de juntar los postulados de la relatividad y la cuántica es que las leyes del universo tienen que ser invariantes si, a la vez, cambiamos partícula por antipartícula, cambiamos izquierda por derecha e invertimos el sentido de avance del tiempo. A este teorema se le denomina teorema CPT. En cambio, las transformaciones C, P, T por separado, y también CP, no son simetrías de la naturaleza. Lo explica muy bien Rachel Houtz en este otro vídeo: 


Como último ejemplo, otras de las consecuencias necesarias y sorprendentes que surge de sumar los postulados de la cuántica con los de la relatividad es la relación espín-estadística. En principio, que una partícula sea bosón o fermión no tiene nada que ver con que su espín sea entero o semientero. Sin embargo, como explica muy bien Ángel Uranga en este vídeo, ambas propiedades tienen que estar ligadas en toda teoría cuántica y relativista:

Análogamente, el intento de unificación de todos los principios de la mecánica cuántica con los de la relatividad general ha llevado a los físicos teóricos a la teoría de cuerdas, donde, junto con la física de los agujeros negros, de nuevo aparecen restricciones, denominados criterios del Swampland, que deben cumplir las teorías efectivas a baja energía para que se puedan acoplar de forma consistente a la gravedad cuántica [Brennan2017]. Aunque algunos famosos divulgadores no han llegado a entenderlo todavía, todo esto no es más que la continuación del programa unificador iniciado por Einstein. Es ciencia de verdad. Lo explica muy bien Irene Valenzuela en este vídeo:

Lo que ocurre en este caso es que la unificación de la mecánica cuántica con la relatividad general es una empresa mucho más difícil y más arriesgada que la que llevó a cabo Einstein. No hay garantías de que la comunidad científica vaya a tener éxito a corto ni a medio plazo. De momento, se tienen indicios de que en cualquier teoría de gravedad cuántica acoplada a un número finito de grados de libertad que sea consistente no podría haber simetrías globales exactas (o estarían rotas, o gaugeadas).  También tendría que haber al menos una especie de partículas tal que, como le ocurre al electron, su repulsión eléctrica entre ellas supere a su atracción gravitatoria, y parece que tendría que haber dimensiones extra y objetos extensos cuya masa se haga arbitrariamente pequeña al hacer tender a cero el tamaño de la dimensión en la que están enrollados. Otros ejemplos son que los agujeros negros tendrían que tener entropía finita y ser prácticamente indistinguibles de partículas masivas o que no podría haber vacíos metaestables con constante cosmológica positiva, lo que nos obligaría a trabajar con modelos cosmológicos de quintaesencia. Todo esto constituye un campo activo de investigación, con lo que no podemos proporcionar todavía afirmaciones seguras. Lo que sí es seguro es que este programa es mucho más potente que el empirismo estándar y, ya ni que digamos, infinitamente más útil que recurrir al principio antrópico cada vez que haya algún aspecto de la naturaleza al que no sabemos dar explicación.


Conclusión


El objetivo de este artículo ha sido explicar un punto imprescindible para comprender la esencia de lo que es la ciencia: el elemento que más potencia da a la ciencia, ya desde la antigua Grecia, es que ésta estructura el conocimiento en base a principios fundamentales. Siguiendo el camino, iniciado por Einstein, de hacer consistentes esos principios, los físicos fueron capaces de combinar los principios de la relatividad especial con los principios de la mecánica cuántica. Esta manera de proceder, en la que se da tanta inportancia a la consistencia de los principios como a los resultados experimentales, tanto en la construcción como en la evaluación de las teorías, forma ya parte ineludible de la física teórica, y ha sido bautizada por los filósofos de la ciencia como empirismo con propósito unificador. Dentro del empirismo estándar no hay forma racional de rechazar teorías ad hoc que estén acordes con los resultados experimentales (tesis de Duhem-Quine), mientras que con el empirismo con propósito unificador de Einstein estas teorías pueden ser rechazadas si fracasan en la contribución al objetivo de la unificación completa, y así es como trabajan los físicos teóricos hoy en día.

Al poner esta idea en práctica hemos descubierto con agrado que, al combinar los principios de la física, se obtienen ligaduras mucho más potentes que si trabajamos con esos principio de forma separada. Así podemos obtener a qué clase pertenece la teoría que estamos buscando, descartando de esta manera las que no pertenezcan a esta clase. Análogamente a lo que ocurre en física experimental, donde es la teoría la que nos guía para proponer un experimento concreto de los infinitos experimentos que se pueden hacer, en física teórica son los primeros principios los que nos guían acerca de con qué teorías trabajar de las infinitas posibilidades que tenemos.

De hecho, incluso puede ocurrir que sólo haya una teoría que cumpla todos los requisitos. De la misma manera que combinar los principios de la relatividad especial y la cuántica nos obliga a trabajar con la teoría cuántica de campos, donde a las partículas le corresponden sus correspondientes antipartículas, hay invariancia CPT y se cumple la relación espín-estadística, imponer la condición adicional de que la teoría incluya a la interacción gravitatoria es posible que nos obligue a trabajar con la teoría de cuerdas como única solución para conseguir la unificación completa. 

¿Y con qué objetivo práctico se busca la unificación completa? Con ninguno. Se trata de la búsqueda de conocimiento sólo por entender la naturaleza. A pesar de los mensajes neoliberales con los que nos bombardean un día tras otro para que adaptemos todo al "mercado", hay que darse cuenta de que proporcionar una educación completa en todos los ámbitos a las nuevas generaciones y dar a la investigación básica, esa que se hace sin tener en cuenta ninguna aplicación concreta, los recursos necesarios, son dos infraestructuras fundamentales para afrontar con garantías los retos del futuro. Y es que, como escribió Abrahan Flexner, primer director y fundador del Instituto de Estudios Avanzados de Princeton, en su ensayo The usefulness of useless knowledge, "la búsqueda, motivada sólo por la curiosidad, de respuestas a las preguntas más profundas frecuentemente conduce, no sólo a los grandes descubrimientos científicos, sino también a los más revolucionarios avances tecnológicos".


Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.


Referencias bibliográficas

  • Banks, Tom (2014), Modern Quantum Field Theory. Cambridge University Press. http://www.cambridge.org/mw/academic/subjects/physics/particle-physics-and-nuclear-physics/modern-quantum-field-theory-concise-introduction?format=HB. ISBN 780521850827, 9780511426711, 9787301245507.
  • Brennan, T. Daniel; Carta, Federico; Vafa, Cumrun (2017). 'The String Landscape, the Swampland, and the Missing Corner'. eprint arXiv:1711.00864
  • Flexner, Abraham (2017): The Usefulness of Useless Knowledge. Princeton University Press.
  • Heisenberg, Werner (1967): La imagen de la naturaleza en la física actual. Ediciones Orbis SA.
  • Motl, L. (2012). "Why Feynman's path integral doesn't contradict the uncertainty principle". TRF.
  • Motl, L. (2017). "Particles' wave functions always spread superluminally". TRF.
  • Peskin, Michael E. and Schroeder, Daniel V. (1995), An Introduction to quantum field theory, Addison-Wesley, Reading, USA, http://www.slac.stanford.edu/~mpeskin/QFT.html, 9780201503975, 0201503972.
  • Quirantes, Arturo (2015). Espacio-tiempo cuántico. En busca de una teoría del todo, Un paseo por el cosmos, Colecciones RBA.

    No hay comentarios:

    Publicar un comentario