23 sept 2014

La diferencia entre precisión y exactitud.

 por Sergio Montañez Naz. 
En un artículo anterior hemos explicado que un método de medida es más preciso cuanto menores son los errores aleatorios que posee, y que el grado de precisión de un método se puede cuantificar midiendo varias veces y estudiando la dispersión de los datos obtenidos al repetir la misma medición.
Dado que los errores aleatorios producen desviaciones, a veces por arriba, a veces por debajo, cuando calculamos la media aritmética de alguna forma estamos "compensando" los errores cometidos, con lo que esperamos obtener un valor cercano al verdadero. No obstante, hemos explicado que en el caso particular de que esos datos obtenidos estén más dispersos que la sensibilidad del aparato utilizado, entonces no podemos tomar como incertidumbre experimental la sensibilidad del aparato, ésta tiene que ser más grande.
En este artículo vamos a presentar otro tipo de errores que pueden producirse al medir una magnitud. Se trata de los errores sistemáticos.

21 sept 2014

La diferencia entre sensibilidad y precisión.

"Sensibilidad" y "precisión" son dos conceptos muy distintos que toda persona con una formación científica básica debería tener claros, pero que, sin embargo, se encuentran mezclados y confundidos en el lenguaje cotidiano y en muchos textos formales. Esperamos que este artículo sirva para aclarar esta confusión.

14 sept 2014

"El modelo estándar y sus retos futuros" Conferencia. Rolf-Dieter Heuer.

   17/11/2014
   19:30
Palacio del Marqués de Salamanca. Paseo de Recoletos 10. 28001. Madrid
 Organiza  Fundación BBVA
 Tipo de evento  Conferencia de divulgación
 Título  El modelo estándar y sus retos futuros
 Ponente  Rolf-Dieter Heuer
 Institución  Director General, CERN
 ¿Necesario confirmación? 
 Más información  http://www.fbbva.es/TLFU/tlfu/esp/areas/cienbas/conferencias/fichaconfe/index.jsp?codigo=1183

7 sept 2014

La observación y la experimentación en ciencia

Astronomer Carl Sagan in 1987.jpg

"Vivimos en una sociedad fuertemente dependiente de la ciencia y la tecnología, en la que casi nadie sabe nada sobre ciencia y tecnología. Este cóctel nos lleva inevitablemente al desastre" [1].

Desgraciadamente, 25 años después de que Carl Sagan escribiera estas palabras su advertencia sigue aun más vigente todavía. No sólo la mayoría de la población, incluso en países desarrollados supuestamente democráticos en los que todo adulto tiene derecho a voto, sigue sin tener los conocimientos más básicos sobre ciencia y tecnología, además, los problemas que preocupaban a Sagan en 1989 han empeorado. Junto con la amenaza nuclear, que sigue existiendo aunque ya no se hable de ella, y del calentamiento global, hemos visto que el crecimiento exponencial de la economía, que estamos obligados a mantener para que no se nos castigue con la dureza del paro, ha traído consigo una destrucción sin precedentes de los ecosistemas naturales, tanto por su explotación como por su incapacidad para asimilar la ingente cantidad de residuos que generamos.

Más aún, el auge y proliferación de pseudoterapias como la homeopatía, de timadores de todo tipo y de negacionistas del calentamiento global, e incluso de la evolución, nos ponen de manifiesto que no sólo hay que trabajar duramente para que toda la población adquiera unos conocimientos científicos sólidos, sino que, además, es mucho más importante que todo ciudadano bien formado entienda en qué consiste el quehacer científico y por qué el conocimiento derivado del mismo es, aunque falible, el más fiable de todos. Es importante hacer esto último muy bien. De lo contrario, estaremos alimentando al fanatismo y a las pseudociencias.

Por ello, es de vital importancia que, tanto en la divulgación científica como en las clases de ciencias en colegios e institutos no se presenten los conocimientos científicos como "dogmas de fe". Así los alumnos no aprenden ciencia y, además, se consigue que los que tienen un mayor sentido crítico la rechacen. Invito al lector a que pida a las personas que tiene a su alrededor que le expliquen, por ejemplo, por qué el modelo heliocéntrico es más adecuado para describir la realidad que el geocéntrico. Simplicio ahora es heliocentrista, pero sigue siendo Simplicio.

Las actividades de clase tienen que mostrar explícitamente que los conocimientos en Física, Química, Biología, etc, descansan sobre "hechos'', y que esto es lo que le confiere a las ciencias experimentales su legitimidad y objetividad frente a otras formas de conocimiento. Tiene que quedar claro, además, el éxito tan espectacular que ha tenido el desarrollo estas ciencias en los últimos siglos.

Pero hay que tener cuidado de hacerlo bien. Como indica Chalmers [2], para poder asegurar en rigor que el conocimiento científico es totalmente objetivo, legítimo e infalible, es necesario que se cumplan estas cuatro condiciones:
  • A) Los "hechos'' en los que se basa la ciencia se dan directamente a observadores cuidadosos y desprejuiciados por medio de los sentidos. 
  • B) Estos "hechos'' son anteriores a la teoría e independientes de ella. 
  • C) Estos "hechos'' constituyen un fundamento firme y confiable para el conocimiento científico. 
  • D) Es posible ir de forma correcta y legítima de los "hechos'' a las leyes y teorías mediante el uso de la razón. 
La confianza en estas cuatro proposiciones, junto con la creencia en que debe haber sólo un único y verdadero método científico aplicable a todas las ciencias constituye lo que se llama una visión empirista-positivista de la ciencia. Este pensamiento se ha presentado recurrentemente a lo largo de la historia en diversas formas desde la epistemología de Augusto Comte de principios del siglo XIX y es hoy en día todavía dominante en parte de la sociedad, incluso entre famosos "divulgadores" de la ciencia y opositores a las pseudociencias.

En este artículo, mediante el estudio de la naturaleza de la observación y la experimentación, vamos, siguiendo el análisis que hace Alan Chalmers en su libro ¿Qué es esa cosa llamada ciencia?, a ver que la visión positivista de las ciencias experimentales es excesivamente ingenua. La concepción positivista de la ciencia descansa sobre mitos que, además, son peligrosos, ya que al creer y difundir estos mitos no estamos siendo más que marionetas del poder.


Por otro lado, en un artículo posterior estudiaremos las características y capacidades del razonamiento humano, lo que nos llevará a enfrentarnos con los problemas de la inducción y, posteriormente, a una visión más sofisticada sobre cómo los científicos pasan de los "hechos" articulares de los experimentos a las leyes y teorías generales.

Por último, en otro artículo daremos algunas nociones sobre el estudio de la historia de la ciencia, en el que ésta se muestra como un proceso de continua construcción y de revisiones revolucionarias, lo que nos llevará a las concepciones que han sido dominantes en filosofía de la ciencia desde los años 60 del siglo pasado. Al contrario que en las concepciones anteriores, en estas últimas juega un papel muy importante el estudio del contexto histórico y social en el que se desarrolla el trabajo científico.

5 sept 2014

Los agujeros negros y la física del siglo XXI.

La gravitación es la única fuerza que gobierna todo el universo. Es la única interacción a la que está sometida toda la materia y energía, sin excepciones, desde los grandes astros hasta la más pequeña de las partículas, incluso la luz está sometida a la interacción gravitatoria.
Para ilustrar esta universalidad de la interacción gravitatoria vamos a resolver un sencillo problema de Física que suele aparecer de forma habitual en los exámenes de acceso a la universidad. La pregunta es ¿qué velocidad inicial necesitamos darle a un objeto para que escape de la atracción gravitatoria terrestre y pueda viajar libremente por el espacio?

Es evidente que, dado que en este problema el objeto parte de la superficie de la Tierra y acaba en el espacio exterior, para poder resolverlo necesitamos unas leyes de la física que valgan tanto en el mundo sublunar (que sean capaces de explicar la caía de una manzana, por ejemplo) como en el mundo supralunar (que describan el movimiento de los astros). Estamos de enhorabuena, porque Isaac Newton en el siglo XVII, subido "a hombros de gigantes" [1] como Galileo, ya obtuvo unas leyes que cumplen estas características. Por tanto, vamos a resolver este problema en el contexto de la física de Newton.
Dado que, a medida que el balón va subiendo, la energía cinética que va perdiendo se va convirtiendo en energía potencial, el problema se resuelve simplemente igualando la energía cinética inicial que tiene el balón a la energía potencial que necesita ganar para escapar del campo gravitatorio terrestre:
$$ \frac{1}{2}mv^2 =\frac{GMm}{R} $$
Lo primero que nos damos cuenta cuando escribimos esta ecuación es que a ambos lados tenemos la masa $m$ del balón, con lo que se cancela. Por tanto, cuando despejamos la velocidad necesaria para sacarlo del planeta obtenemos una expresión que vale para cualquier balón, o para cualquier otro objeto, ya que no depende de su masa.
$$ v= \sqrt{\frac{2GM}{R}}$$
Teniendo en cuenta el valor de la constante de gravitación universal, la masa de la Tierra, y el radio de la Tierra $R=6370\text{ km}$, esta velocidad necesaria universal para todos los objetos es de $ v= 11,18 \text{ km/s} $ y se denomina velocidad de escape.
Si, en cambio, la Tierra tuviera una masa más grande, o un radio más pequeño, entonces esta velocidad de escape sería mayor. Por ejemplo, si fuéramos capaces de concentrar toda la masa de la Tierra en una esfera de radio menor que 8,85 mm , ni siquiera la luz, que viaja a 300 000 km/s, podría escapar de la Tierra. De aquí se deduce que, de acuerdo con la física de Newton,  es posible que existan en el universo estrellas "invisibles".
Los primeros testimonios escritos que tenemos de esta idea, datan de finales del siglo XVIII, y son una carta [2] que el geólogo y astrónomo británico John Michell escribió a Henry Cavendish, y la obra de divulgación Exposition Du Système du Monde [3]del matemático y astrónomo francés Pierre Laplace.
No obstante, esto no tuvo mayores consecuencias para la física fundamental ya que, no habiendo en la física de Newton ninguna velocidad máxima posible, bastaría con viajar más rápido que la luz para poder escapar de esas estrellas "invisibles".
Sin embargo, el razonamiento del párrafo anterior se fue al traste a principios del siglo XX, cuando Albert Einstein descubrió que la velocidad de la luz es la máxima velocidad posible, y que la física de Newton describe el mundo sólo de forma aproximada cuando las velocidades involucradas son mucho menores que las de la luz.
En 1905 Einstein formuló, para hacer la mecánica compatible con las leyes del electromagnetismo de Maxwell, que predecían que el campo electromagnético se propaga a la velocidad de la luz, la primera de las teorías de la relatividad, la relatividad especial. Ésta se basa en dos postulados. El primero, denominado principio de relatividad, afirma que todas las leyes de la física son las mismas en todos los sistemas de referencia inerciales, de forma que plantearse cuál de ellos es el que se mueve y cuál es el que está en reposo no sólo es una tarea imposible, sino que carece de sentido. El segundo, que es el que más nos interesa en el presente artículo, se denomina principio de velocidad máxima de propagación de las interacciones y nos da la respuesta al interrogante del apartado anterior: no existen interacciones a distancia instantáneas. Para que algo que ocurre en un punto concreto del espacio pueda afectar a otro punto separado es necesario que pase, como mínimo, el tiempo que tarda la luz en llegar del primer punto al segundo. Es por tanto la velocidad de la luz una cota superior, tanto para viajar como para mandar algún tipo de señal que contenga información, como para cualquier otro tipo de proceso que suponga una interacción.
Vemos, por tanto, que el espacio y el tiempo llevan asociado una estructura causal. Si dibujamos en un diagrama espacio-tiempo las trayectorias de rayos de luz que parten o van hacia el origen, éstas forman conos. El principio de velocidad máxima de propagación de las interacciones nos dice que, si nos encontramos en el vértice del cono, sólo podemos ir o afectar causalmente a sucesos que están dentro del cono futuro y nunca fuera.
Einstein se dio cuenta de que ley de la gravitación de Newton, que supone que la interacción gravitatoria es instantánea, no es compatible con la relatividad especial. Esto no quiere decir que esta ley no sea útil, ya que permite explicar con bastante precisión el movimiento de casi todos los planetas y satélites en el sistema solar, debido a que la velocidad con la que se mueven unos respecto de los otros es muy inferior a la de la luz y las interacciones gravitatorias en el sistema solar no son muy intensas, pero fuera de ese régimen las leyes de la gravitación no podían ser simplemente las leyes de Newton. Por ello Einstein trabajó sobre la interacción gravitatoria durante años. El resultado, la teoría general de la relatividad [4], generaliza a la especial e incluye la gravitación de forma consistente. Esta teoría es, en mi opinión y en la de algunos más [5], «la más bella» de las teorías físicas existentes.
Hemos visto que en la expresión del cálculo de la velocidad de escape en física newtoniana que la masa del cuerpo cuyo movimiento estamos estudiando se cancela. Esto quiere decir que en un campo gravitatorio el movimiento que va a tener ese cuerpo no va a depender de su masa, sólo de su posición y velocidad iniciales, es decir, en un campo gravitatorio todos los cuerpos caen igual. Esto es precisamente lo que le ocurre a un coche que pega un frenazo: todos los cuerpos que viajaba con el coche "caen" igual hacia el cristal delantero. Esta fue la idea clave que tuvo Einstein para construir la relatividad general y se llama principio de equivalencia: los cuerpos que caen en un campo gravitatorio lo hacen igual que en un sistema de referencia que frena bruscamente. Ahora bien ¿qué le ocurre a un rayo de luz desde el punto de vista de un coche que frena bruscamente? Éste también "cae" hacia el cristal delantero. Esto quiere decir que en un campo gravitatorio el espacio está deformado de tal forma que los rayos de luz también tienen que curvarse, como cualquier otro objeto, sólo que el rayo de luz es, de todos ellos, el que va más rápido. En esta teoría, que se denomina relatividad general, por tanto, la materia/energía «curva» el espacio-tiempo, de manera que los conos de luz están deformados, siendo posibles muchos tipos distintos de estructuras causales.
La forma en la que Einstein llegó a formular esta teoría mediante una técnica que, aunque utilizada por los pensadores desde la antigüedad, fue bautizada a principios del siglo XIX por Hans Christian Ørsted [6] y refinada posteriormente por Ernst Mach [7]. Su éxito fue tal que desde entonces se ha convertido en la principal herramienta de los Físicos teóricos. Nos referimos a los llamados "experimentos mentales", del término latino-germano Gedankenexperiment (lit. experimentos conducidos en los pensamientos). Se trata de experimentos que posiblemente no podemos realizar en la práctica, que no tenemos interés en hacer o que todavía no hemos hecho, pero que ponen a prueba las consecuencias, la potencialidad y la coherencia lógica de las teorías, las hipótesis y los modelos Físicos. Por supuesto, en Física son los experimentos reales los que dictan sentencia y, hasta ahora, todos han dado la razón a Einstein [8].
Ocurre, sin embargo que las ecuaciones de la relatividad general son tremendamente complicadas, aunque no lo deben ser tanto cuando el matemático alemán Karl Schwarzschild en 1915 sólo tardó un mes, desde que salió la forma definitiva de las ecuaciones de Einstein, en calcular una solución exacta de las mismas, y todo esto mientras combatía en el frente ruso en la Primera Guerra Mundial y, además, desarrollaba una terrible y dolorosa enfermedad de la piel. Afortunadamente, antes de morir publicó su solución, que se conoce actualmente por la solución de Schwarzschild.
Esta solución expresa cómo está deformado el espacio-tiempo alrededor de un objeto esférico sin rotación, por ejemplo, una estrella. Y lo más llamativo de la misma es que, si el radio de la estrella colapsara hasta un valor inferior a esta cantidad
$$ R =\frac{2GM}{c^2} $$
esta deformación sería tan grande que la luz no podría escapar y, por tanto, ningún otro objeto. A la esfera que tiene este radio se la denomina "horizonte de sucesos del agujero negro". Una vez cruzado, el viaje de retorno se vuelve imposible. Esto es así porque, para $r < R$ el espacio-tiempo está tan deformado que los conos de luz futuros apuntan todos hacia el centro del agujero negro, no dando la oportunidad a ninguna trayectoria de poder salir del agujero negro. Es decir, el futuro de todo observador que ha atravesado el horizonte de sucesos es acabar en $ r=0 $, una singularidad donde la curvatura se hace tan grande que ni la misma relatividad general es válida allí.
Una vez cruzado el horizonte de sucesos, el cono de luz futuro está tan inclinado que no podemos escapar del agujero negro sin salir del cono (R. Geroch, General relativity from A to B, Cambridge University Press).
La palabra "black hole" (agujero negro) no se empezó a utilizar hasta los años 60 del pasado siglo, fundamentalmente por la influencia del físico estadounidense John Archibald Wheeler aunque, al parecer, no fue el primero en utilizar el término, ya que se había usado en un congreso científico con anterioridad [9]. No obstante, en la URSS se les llamaba коллапсар (collapsar), y también se usaba "estrella congelada". El motivo de este nombre se debe a que, de acuerdo con la solución de Schwarzschild y la relatividad general, a medida que nos acercamos a un agujero negro se da un efecto de dilatación temporal gravitatoria que hace que el tiempo fluya más despacio que para alguien situado lejos del agujero negro. Este efecto se ha medido y se da en cualquier astro masivo, pero en el caso de un agujero negro a medida que nos acercamos al horizonte de sucesos esta ralentización del tiempo se hace infinita. Esto indica que la materia que está a punto de caer al agujero negro nos aparece como "congelada" en el tiempo. No obstante, por culpa de este efecto de "congelación" la luz que nos llega de esta materia tiene una frecuencia de vibración tan baja que no podemos percibirla, y por eso se impuso el término occidental de "agujero negro".
Un agujero negro como un "astro congelado". De Novikov (1990): Black holes and the universe. Cambridge University Press
No obstante, es erróneo pensar que los agujeros negros son indetectables. De hecho, muchos agujeros negros son fáciles de detectar hoy en día, ya que a medida que va cayendo la materia hacia el horizonte se va creando tráfico a su alrededor, como cuando a los madrileños se les ocurre volver de la playa todos a vez, y las colisiones y fricciones que se producen entre la materia que cae hace que se caliente hasta miles de millones de grados emitiendo así rayos X. Y como esa materia todavía no ha atravesado el horizonte de sucesos, esos rayos X escapan del agujero negro y nos llegan hasta nosotros. De hecho, parte de la materia que está cayendo hacia él también sale despedida en chorros de longitudes que pueden superar el millón de años luz.
El siguiente vídeo muestra una simulación sobre cómo el agujero negro más pequeño conocido, el IGR J17091, de sólo tres veces la masa del Sol y situado a 28000 años-luz de la Tierra, capta materia-energía de una estrella cercana y expulsa el 95% de ésta en forma de chorros de partículas y de rayos X:
Otro error común consiste en creer que los agujeros negros tienen que ser objetos muy densos. Eso se puede calcular. Todos sabemos que la densidad es la masa entre el volumen. Como la masa de un agujero negro es proporcional a su radio, mientras que el volumen es proporcional al radio al cubo, lo que se obtiene es que la densidad de un agujero negro decae como el inverso del radio al cuadrado, es decir, que cuanto mayor sea un agujero negro, menor es su densidad. De esto ya se había dado cuenta Laplace cuando escribió en su Exposition du Système du Monde [3]:
« Un astre lumineux, de la même densité que la Terre, et dont le diamètre serait 250 fois plus grand que le Soleil, ne permettrait, en vertu de son attraction, à aucun de ses rayons de parvenir jusqu'à nous. Il est dès lors possible que les plus grands corps lumineux de l'univers puissent, par cette cause, être invisibles. »
De hecho, en todos los centros de las galaxias conocidas parece que hay agujeros negros grandes y poco densos (con densidades inferiores a la del agua) de este tipo.
En la imagen podemos ver la galaxia Centaurus A, situada a 12 millones de años luz de la Tierra. Su centro, por los valores de su volumen y densidad sabemos que tiene que ser un agujero negro, emite gran cantidad de rayos X que nos llegan hasta la Tierra. Obsérvese como la longitud del chorro de materia que también expulsa es similar al tamaño de la galaxia entera. ESO/WFI (visible); MPIfR/ESO/APEX/A. Weiss et al. (microwave); NASA/CXC/CfA/R. Kraft et al. (X-ray); Inset: NASA/TANAMI/C. Müller et al. (radio)
En cambio, el agujero negro que hay en el centro de nuestra galaxia, de unos 4 millones de masas solares, no es tan activo. No obstante, los astrónomos tienen esperanzas de poder observar los rayos X provenientes del  entorno más cercano a nuestro agujero negro local cuando alguna nube de gas se acerque al horizonte de sucesos.
Hay que señalar que, en rigor, decir que el volumen del agujero negro es proporcional al cubo del radio $ R $ de Schwarzschild es más un convenio que una afirmación con significado físico, ya que la coordenada "radial" $ r $ no nos da la distancia física real. De la métrica de Schwarzschild sí que se deduce que el área del horizonte de sucesos es
$$ A= 4 \pi R^2 $$
pero el volumen no está bien definido, ya que dentro del agujero negro las trayectorias $ r=\text{constante}$ se salen del cono de luz, es decir, que la coordenada $ r $ dentro del agujero negro no es espacial, sino temporal.
El hecho de que la materia caliente, como la que está cayendo a un agujero negro, emite radiación es algo que los alfareros y los herreros han sabido desde siempre, pero ¿por qué ocurre esto? Afortunadamente, la respuesta a esta pregunta la conocemos bien desde hace 100 años gracias a que a finales del siglo XIX el gobierno alemán hizo lo mejor que puede hacer un gobierno que de verdad ama su país: invertir una gran cantidad de dinero en investigación científica y tecnológica (lástima que unas décadas después los nazis lo destrozaran todo). En 1887 creó el Physikalish-Technische Reichsanstalt (PTR), el Instituto Imperial de Física y Tecnología a las afueras de Berlín, el laboratorio de investigación mejor equipado del mundo, y que tiene gran parte de culpa de que la mayoría de las grandes figuras de la Física, tanto teórica como experimental, desde entonces hasta 1945 sean alemanas.
Physikalish-Technische Reichsanstalt (PTR)
Uno de los problemas prioritarios del PTR, por su interés para la creciente industria alemana, era entender el espectro de radiación de los filamentos incandescentes. Y aquí fue donde, trabajando en una versión simplificada de este problema denominada "espectro de radiación del cuerpo negro" Max Planck, un profesor de la Universidad de Berlín, hizo un "apaño" que supuso el comienzo de la mayor revolución que ha sufrido la Física en su historia.
Planck en 1918, cuando recibió el premio Nobel de Física por su trabajo sobre los cuantos.
AB Lagrelius & Westphal.
Lo primero que hay que indicar es que un cuerpo negro, aunque no refleja nada de la radiación que le llega, no es negro, ya que emite luz en función de la temperatura a la que se encuentra. Saber que un cuerpo negro se encuentra a una temperatura T lo que nos da son ciertas probabilidades de que la luz que se emite tenga una energía E u otra. Planck, para poder calcular la media ponderada de la energía emitida por el cuerpo negro en función de las distintas probabilidades, se encontró con que tenía que hacer una suma para todos los posibles valores de la energía emitida. Pero la energía es un número real positivo, hay que sumar para todo un rango posible de valores desde cero hasta infinito, es decir, hay que hacer una operación que en matemáticas se llama integral definida impropia:
$$ E_\text{total}\propto\frac{ \int_0^\infty dE \int_0^\infty df E e^{-\frac{E}{T}} f^2 } { \int_0^\infty dE   e^{-\frac{E}{T}} }$$
Sin embargo, al hacer el cálculo, salía infinito. Esto, por supuesto, tiene que estar mal, ya que ningún panadero cuando abre el horno para coger el pan muere abrasado por una radiación de energía infinita que emiten las paredes interiores del horno. Entonces fue cuando a Planck se le ocurrió sustituir la integral por un sumatorio, es decir, suponer que las energías emitidas por el cuerpo negro sólo pueden tomar valores discretos, múltiplos de una cantidad, que él denominó cuanto, y que hoy sabemos que es la energía de cada uno de los fotones emitidos. Esta energía de cada fotón tenía que ser proporcional a su frecuencia para que a Planck le salieran las cuentas. A la constante de proporcionalidad hoy en día la conocemos como constante de Planck.$$ E_{\text{cuanto}}=hf $$Planck, que era un tipo muy conservador, tiene el honor de haber comenzado una revolución, ya que fue el primero en escribir una ecuación de la Física cuántica. Pero Planck no entendía el significado físico de lo que había propuesto y, de hecho, ni siquiera pensaba que esta ecuación tuviera algo que ver con las leyes fundamentales de la física. Fue una tarea colectiva, que duró casi 30 años, la que dio lugar a una teoría que explicaba esta nueva física, y que se denomina mecánica cuántica. Hoy en día sabemos que la física de Newton es una aproximación de la mecánica cuántica cuando podemos despreciar el valor de la constante de Planck, de la misma manera que también es una aproximación de la física relativista cuando podemos suponer que la luz se propaga instantáneamente.
Los lectores inquietos se estarán dando cuenta de que en este diagrama falta la pieza más importante: una teoría cuántica y relativista consistente. Esto ya se ha hecho, se llama teoría cuántica de campos, pero no tiene en cuenta la gravitación. Y sabiendo que, como he indicado al principio, la gravitación es la única fuerza verdaderamente universal, esta situación es claramente insatisfactoria.
Y aquí es donde aparece el trabajo de Stephen Hawking. Aunque Hawking no ha elaborado ninguna teoría cuántica, relativista, completa y consistente que incluya la gravitación, estudió los efectos cuánticos en los agujeros negros realizando una aproximación semiclásica y encontró un  resultado sorprendente: los agujeros negros, incluso sin que caiga materia hacia ellos, emiten radiación, a la que se conoce hoy en día como radiación de Hawking [10].
Por tanto, los agujeros negros tienen que, poco a poco, perder energía, es decir, adelgazar. Este resultado es totalmente sorprendente ya que, como hemos indicado, la relatividad general predice que nada puede escapar de un agujero negro.
Además, según el cálculo de Hawking, esta radiación emitida por el agujero negro es igual que la que emitiría un cuerpo negro de temperatura:
$$ T=\frac{hc^3}{16\pi^2 G M} $$Ésta es la primera ecuación de la historia en la que aparen juntas la constante de gravitación universal, que nos indica si es necesario tener en cuenta los efectos gravitatorios, la velocidad de la luz, que nos indica si hay que tener en cuenta los efectos relativistas, y la constante de Planck, que nos indica en qué casos no nos debemos olvidar de los efectos cuánticos.
Sabemos que la temperatura es una magnitud macroscópica que surge cuando estamos estudiando sistemas tan complejos que no podemos tener en cuenta todos sus grados microscópicos de libertad. Por tanto, otra consecuencia también sorprendente del resultado de Hawking es que la descripción que nos da la relatividad general de los agujeros negros no es una descripción completa. Los agujeros negros están "hechos" de más cosas que simplemente la métrica del espacio-tiempo que nos da la solución de Schwarzschild. Hay más información en un agujero negro que la que nos dice la relatividad general.
Pensemos, por ejemplo, en un gas. Con nuestros aparatos "macroscópicos" podemos medir su volumen, presión, temperatura, masa total, etc, caracterizar el estado en el que se encuentra el gas y verificar si se cumple o no para este gas la famosa ecuación de los gases ideales
$$ PV = nRT $$Pero saber que el gas se encuentra en ese estado concreto nos dice poco acerca de la posición y velocidad que tienen todas las moléculas que forman parte del gas. A esa cantidad de información oculta, medida en bits, se le llama entropía.
El resultado de Hawking implica, por tanto, que los agujeros negros tienen una entropía distinta de cero. Insisto en que el hecho de que los agujeros negros tengan entropía significa que poseen información más allá de la que nos dice la relatividad general, con lo que la relatividad general no es una teoría fundamental.
Una cosa importante a tener en cuenta es que, al ser la entropía información, ésta va a ser siempre proporcional al número de partículas que formen el sistema físico. Habitualmente en los sistemas termodinámicos que se estudian en Física, Química y Ciencias de la Tierra estas partículas se distribuyen por todo un volumen, y, por tanto, la entropía es proporcional al volumen del sistema, por eso se dice que es una magnitud extensiva $$ S\propto N \propto V $$
Sin embargo, el resultado de Hawking implica que la entropía de los agujeros negros es proporcional al área A del horizonte de sucesos $$ S=\frac{\pi c^3}{2Gh}A $$Esto quiere decir que las partículas, las cuerdas o lo que quiera que sean los constituyentes básicos de un agujero negro no se distribuyen por el volumen del mismo, sino por su horizonte, que tiene ¡una dimensión menos!
De hecho, este resultado afecta a toda la materia/energía del universo, aunque no forme un agujero negro. Para ver esto, imaginemos una región del espacio, cuya frontera tiene un área A0, que contiene una cierta cantidad de materia/energía, con una entropía S0. Supongamos que esta materia/energía está en las condiciones en las que puede evolucionar de forma aislada hasta formar un agujero negro. Esto se denomina colapso gravitatorio y está aceptado que es un proceso físicamente posible en ciertas condiciones. Tras el colapso, en el que disminuye el área, tenemos un agujero negro cuya frontera tiene área
$$ A_1 \leq A_0 $$
y que posee una entropía
$$ S_1=\frac{\pi c^3}{2Gh}A_1 \leq \frac{\pi c^3}{2Gh}A_0 $$
Como el sistema está aislado, entonces la segunda ley de la termodinámica nos dice que la entropía no ha podido disminuir, de forma que
$$ S_0 \leq S_1 $$
De estas desigualdades se deduce que, para la situación inicial,
$$ S_0 \leq \frac{\pi c^3}{2Gh} A_0 $$
es decir, que los grados de libertad internos en un volumen dado (que no sabemos cuáles son) en la teoría cuántica de la gravitación que estamos buscando están acotados, no por el volumen, sino por el área de la frontera de esta región.
Esto, por supuesto, nos tiene desconcertados a los físicos, aunque no es la primera vez que vemos una cosa así. Los hologramas funcionan de esta manera:
El mecanismo de este holograma es bastante sencillo. Nosotros nos creemos que estamos viendo una rana en 3 dimensiones (la que está arriba), cuando en realidad donde estamos mirando es a un espejo de 2 dimensiones, es decir, estamos viendo a la rana de verdad (la que está abajo) reflejada en un par de espejos esféricos.

Por tanto, la información que permite construir la imagen tridimensional de la rana realmente está distribuida en la superficie bidimensional de un espejo. Lo que este resultado de la entropía de los agujeros negros nos está indicando es que es posible que al mundo real le ocurra lo mismo: ¡lo que creemos que es el mundo real en 3 dimensiones realmente podría ser un holograma de la física que ocurre en una dimensión menos! Esta idea especulativa se denomina principio holográfico [11], y fue propuesta en 1993 por el físico holandés y premio Nobel Gerard 't Hooft, y mejorada y promovida por el físico norteamericano Leonard Susskind.
Posiblemente esta propuesta se habría quedado como una más del conjunto de ideas alocadas que emiten los físicos teóricos últimamente, de no ser porque en 1997 el físico argentino Juan Maldacena encontró un modelo matemático, denominado correspondencia AdS/CFT [12], que se ajusta al principio holográfico. Se trata de un espacio denominado Anti-de Sitter, (que sería el análogo espacio-temporal al espacio hiperbólico y que no tiene nada que ver con nuestro universo), cuya física gravitatoria realmente está codificada en la frontera en una teoría cuántica de campos que posee una dimensión menos y donde no hay interacción gravitatoria.
Para que el lector se haga una idea de que la comunidad científica no sólo se está tomando muy en serio la conjetura de Maldacena, sino que la tendencia que domina actualmente el estudio de los agujeros negros es la holografía, indicamos que el trabajo de Maldacena ha llegado recientemente a las 10000 citas, siendo actualmente el paper más citado en INSPIRE-HEP, la base de datos abierta más importante sobre física de altas energías.
El escenario en el que Maldacena formuló su correspondencia es la teoría cuerdas y constituye, de todos los intentos que se están haciendo para obtener una teoría cuántica de la gravitación (lo que parece que nos permitiría obtener respuestas a todos los interrogantes que nos hemos hecho en este artículo), el aspirante más serio. En el contexto de esta teoría se han conseguido interpretar y contar con éxito los grados de libertad internos de los únicos tipos de agujeros negros en los que es posible hacerlo de forma exacta (denominados agujeros negros supersimétricos) [13].
No obstante, la teoría de cuerdas no está completa, en el sentido de que sólo conocemos determinados límites perturbativos de ésta y algunas propiedades no perturbativas. Además, tenemos que admitir que todos los experimentos mentales que hacemos sobre la materia que cae a un agujero negro nos llevan a contradicciones en cuanto metemos la mecánica cuántica de por medio, hecho que se ha puesto aun más de manifiesto en los últimos años [14], pero todo esto lo vamos a dejar para otro artículo, ya que éste ha quedado demasiado largo. Estamos todavía muy lejos de conocer cuál es la naturaleza cuántica de la interacción gravitatoria y, por tanto, del espacio-tiempo. Son las nuevas generaciones las que tiene que construir la física del siglo XXI que completa el diagrama.





[1] The correspondence of Isaac Newton, volume 1, HW Turnbull, 1959, p. 416

[2] Michell, J., "On the Means of Discovering the Distance, Magnitude, &c. of the Fixed Stars, in Consequence of the Diminution of the Velocity of Their Light, in Case Such a Diminution Should be Found to Take Place in any of Them, and Such Other Data Should be Procured from Observations, as Would be Farther Necessary for That Purpose". Philosophical Transactions of the Royal Society 74 (0): 35–57, (1784), Bibcode:1784RSPT...74...35M. doi:10.1098/rstl.1784.0008. JSTOR 106576.

[3] Laplace, P., Exposition du système du monde, Tome 1, (1796), A Paris, de l'imprimerie du Cercle-Social, rue du Théâtre-Français, n° 4. L'An IV de la République française

[4] R. M. WALD: General Relativity, Chicago  (1984).

[5] L. D. Landau y E. M. Lifshitz: Teoría Clásica de los Campos, Barcelona, Volumen 2 del Curso de Física Teórica  (1992).

[6] Witt-Hansen, J., H.C, "Ørsted, Immanuel Kant and the Thought Experiment", Danish Yearbook of Philosophy, Vol.13, (1976), pp. 48–65.

[7] Mach, E., "On Thought Experiments", pp. 134–147 in Mach, E., Knowledge and Error: Sketches on the Psychology of Enquiry, D. Reidel Publishing Co., (Dordrecht), (1976). [Translation of Erkenntnis und Irrtum (5th edition, 1926.].

[8] Clifford, M. W., "The Confrontation Between General Relativity and Experiment", in LIVING REVIEWS IN RELATIVITY 17, 4 (2014) (arXiv:1403.7377) (http://www.livingreviews.org/lrr-2014-4)

[9] Quinion, M: Black Hole. World Wide Words. (2008).

[10] S. W. Hawking: "Particle creation by black holes", Commun. Math. Phys. 43 (1975), 199—220.

[11] G. HOOFT: «Dimensional Reduction In Quantum Gravity», arXiv:gr-qc/9310026 (1993). L. Susskind: «The World as a hologram», J. Math. Phys., 36, p. 6.377 (1995). J. D. Bekenstein: «Entropy bounds and black hole remnants», Phys. Rev. D, 49, p. 1.912  (1994).

[12] J.M. Maldacena,"The Large N limit of superconformal field theories and supergravity,'' Int.\ J.\ Theor.\ Phys.\ 38 (1999) 1113 [Adv.\ Theor.\ Math.\ Phys.\ 2 (1998) 231] [hep-th/9711200]. O. AHARONY, S. S. GUBSER, J. M. MALDACENA, H. OOGURI y Y. OZ (2000): «Large N field theories, string theory and gravity» Phys. Rept., 323 p.183

[13] Ver, por ejemplo, G. T. HOROWITZ y J. POLCHINSKI (1997): «A correspondence principle for black holes and strings», Phys. Rev. D, 55, p. 6.189. A. STROMINGER y C. VAFA (1996): «Microscopic Origin of the Bekenstein-Hawking Entropy», Phys. Lett. B, 379, p. 99. J. M. MALDACENA (1996): «Black holes in string theory», arXiv:hep-th/9607235. J. M. MALDACENA, (1998): «Black holes and D-branes» Nucl. Phys. Proc. Suppl., 61A, p. 111 [Nucl. Phys. Proc. Suppl., 62 (1998), p. 428]. G. T. HOROWITZ (1997): «Quantum states of black holes», arXiv:gr-qc/9704072. S. R. DAS y S. D. MATHUR (2000): «The Quantum Physics Of Black Holes: Results From String Theory», Ann. Rev. Nucl. Part. Sci., 50, p. 153.

[14] Ahmed Almheiri, Donald Marolf, Joseph Polchinski, & James Sully, “Black Holes: Complementarity or Firewalls?,” arXiv:1207.3123, 13 Jul 2012. J.Maldacena and L.Susskind, "Cool horizons for entangled black holes,'' Fortsch.\ Phys.\ 61 (2013) 781 [arXiv:1306.0533 [hep-th]].

Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

1 sept 2014

"El círculo virtuoso de la ciencia y la innovación" Conferencia. Isabel Béjar

18/09/2014
19:30
Palacio del Marqués de Salamanca. Paseo de Recoletos 10. 28001. Madrid
 Organiza  Fundación BBVA
 Tipo de evento  Conferencia de divulgación
 Título  El círculo virtuoso de la ciencia y la innovación
 Ponente  Isabel Béjar
 Institución  Coordinadora técnica de Hi-luminosity LHC, CERN
 ¿Necesario confirmación? 
 Más información  http://www.fbbva.es/TLFU/tlfu/esp/areas/cienbas/todas/index.jsp

"Retos tecnológicos del acelerador y de los detectores del LHC" Conferencia. José Miguel Jiménez.

   16/10/2014
   19:30
Palacio del Marqués de Salamanca. Paseo de Recoletos 10. 28001. Madrid
 Organiza  Fundación BBVA
 Tipo de evento  Conferencia de divulgación
 Título  Retos tecnológicos del acelerador y de los detectores del LHC
 Ponente  José Miguel Jiménez
 Institución  Líder del Departamento de Tecnología, CERN
 ¿Necesario confirmación? 
 Más información  http://www.fbbva.es/TLFU/tlfu/esp/areas/cienbas/conferencias/fichaconfe/index.jsp?codigo=1182