27 ago 2017

Del falsacionismo a las inferencias bayesianas

En el artículo anterior hemos visto que las inferencias inductivas no son inferencias válidas. Aunque los enunciados particulares que constituyen las premisas
E="Este cuervo, y éste, y este otro, son negros"
sean verdaderas, la conclusión
H="Todos los cuervos son negros"
es un enunciado general que podría ser falso. Podría existir un cuervo no negro que no haya sido todavía observado. La justificación del esquema de inferencia inductiva es circular: la inducción nos ha dado buenos resultados en el pasado, luego, por inducción, seguirá dándonos buenos resultados en el futuro. Vimos también que, en la práctica, este problema es poco importante. Después de todo, el hecho E sí que debería hacernos tener más confianza en que H es cierta, aunque nunca estemos totalmente seguros.

Sin embargo, al preguntarnos en qué casos un resultado experimental particular E confirma a una hipótesis general H, es decir, en qué casos al obtener E podemos estar un poco más seguros de que H es cierta, hemos visto que no basta con que H implique E. Por ejemplo, al estudiar la paradoja de los cuervos vimos que, si E consiste en que he observado una cosa no negra y he visto que no es cuervo, eso no nos hace estar más seguros de que es cierta la hipótesis H="Todas las cosas no negras son no cuervos". En cambio, si E="He visto un cuervo negro", entonces sí que E nos confirma H, porque E hace que estemos ahora un poquito más seguros de que todos los cuervos son negros. La paradoja de los cuervos nos indica que no es posible establecer unas reglas generales y objetivas (que no dependan de las expectativas previas ni del contexto) que nos indiquen cuando E confirma H, lo que nos lleva a un relativismo muy incómodo.

Además, incluso en el caso de que E sí  confirme a H, existe el problema adicional de encontrar el criterio que nos diga en qué casos podemos estar muy seguros de que H es cierta, frente a los casos en los que sólo debemos estar un poco más seguros. 

Karl Popper.jpg
Karl Popper

Estos problemas de la inducción llevaron al filósofo austriaco Karl Popper a proponer la falsación, en vez de la inducción, como el tipo de razonamiento en el que está basada la ciencia. Popper se dio cuenta de que, aunque el resultado experimental singular "Hay x cuervos negros" no se puede usar para afirmar con seguridad el enunciado general "Todos los cuervos son negros", la observación singular de que hay un cuervo que no es negro sí sirve para demostrar rigurosamente que el enunciado "Todos los cuervos son negros" es falsa. La concepción falsacionista de la ciencia, en su versión más sofisticada, está basada en las siguientes premisas [Popper1959]:
  • Popper adapta el postulado reduccionista del positivismo, según el cual sólo tienen sentido las afirmaciones que se puedan comprobar directamente a partir de los "hechos" o que pueden deducirse lógicamente a partir de éstos, modificándolo por el postulado falsacionista: "Las leyes y teorías científicas han de ser falsables, es decir, ha de existir algún hecho experimental posible que sea incompatible con ellas". En otras palabras, según Popper para que un enunciado sea científico debe existir algún hipotético resultado experimental que lo refute. Así, por ejemplo, la ley de conservación de la cantidad de movimiento es un enunciado científico, porque en un experimento de colisiones podría obtenerse como resultado que la cantidad de movimiento total final es distinta de la inicial. Si pasara esto alguna vez, tendríamos claro que tenemos que descartar la ley de conservación de la cantidad de movimiento (¿a que sí Pauli?).
  • Si, tras numerosos y elaborados intentos, no hemos conseguido refutar una teoría concreta, entonces tenemos que aceptarla, pero siempre de forma provisional. De esta forma, las teorías no se derivan de las experiencia, sino que se crean por el intelecto humano para después ser sometidas a prueba rigurosa e implacablemente por la observación y la experimentación. Éstas, la observación y la experimentación, son guiadas por la teoría y la presuponen.
  • Las teorías que no superen las pruebas experimentales han de ser eliminadas y reemplazadas por otras que a su vez se pondrán a prueba. Pero no vale cualquier hipótesis o teoría, sino que éstas deben ser más falsables que aquella en cuyo lugar se ofrecen. Una teoría recién propuesta ha de ser considerada como digna de atención si es más falsable que su rival y, en especial, si predice un nuevo tipo de fenómenos que su rival no menciona. Esto excluye modificaciones "ad hoc'' como, por ejemplo, la que propusieron los aristotélicos cuando, ante la afirmación de Galileo de que había visto cráteres en la Luna, postularon que la Luna seguía siendo una esfera perfecta porque estaba rodeada de un material transparente perfectamente esférico. Esta afirmación no era falsable porque en aquella época no era posible viajar a la Luna para comprobarla.
De esta forma, según Popper, la ciencia progresa en el sentido de que sólo sobreviven las teorías más aptas. Aunque no se puede decir que una teoría superviviente es rigurosamente verdadera, sí que se puede decir que es la mejor disponible.

En este artículo vamos a analizar el falsacionismo desde una perspectiva más amplia de la que propuso Popper. Esto nos llevará a una concepción del razonamiento científico más sofisticada que el inductivismo y el falsacionismo denominada "bayesianismo".

Un ejemplo: el entrelazamiento cuántico


En física cuántica existe un fenómeno denominado "entrelazamiento cuántico", que puede darse en un conjunto de dos o más partículas que interaccionaron en el pasado, y que consiste en una correlación entre los resultados de la medición de alguna propiedad de estas partículas, de tal forma que no es posible separar la función de onda del conjunto en el producto de la función de onda de cada partícula. Por ejemplo, puede ocurrir que siempre que medimos que la polarización del fotón A es horizontal, entonces la del fotón B sale vertical, y viceversa.

Supongamos que tenemos 3 teorías posibles que pretenden explicar el fenómeno del entrelazamiento cuántico:
  • La teoría RL. Esta teoría tiene dos características que la hacen atractiva:
    • Es realista, es decir, en ella la polarización del fotón es una característica del fotón que tiene un valor definido en todo momento, aunque no la estemos midiendo. Antes de la medición el fotón tiene propiedades ocultas que determinan la polarización, pero que no se hacen visibles hasta que no medimos. RL es, por tanto, una teoría de variables ocultas.
    • El local, es decir, obedece al requerimiento relativista de que las partículas no pueden interaccionar entre ellas a distancia más rápido de lo que tardaría la luz en llegar desde una hasta otra. Esto hace que, como los fotones A y B se han alejado mucho ya uno del otro, no puedan afectarse ni comunicarse.
  • La mecánica cuántica (MC). Es la teoría que explica satisfactoriamente toda la física de los últimos 90 años y tiene una capacidad de predicción mayor que cualquier otra teoría que ha hecho el ser humano. Esta teoría sí respeta la localidad, pero no es realista. En ella, la polarización del fotón no es una propiedad del fotón aislado, sino que es una propiedad del conjunto fotón+aparato de medida y, por tanto, la polarización del fotón no es en general una magnitud bien definida antes de que se produzca la medición (a no ser que tengamos certeza de lo que va a salir, en cuyo caso sí podemos decir que está bien definida). Es decir, según la mecánica cuántica, lo que ocurre no es que la polarización del fotón existe antes de la medición pero está oculta, sino que ni siquiera existe como ente antes de la medición.
  • La teoría RN. Es una teoría realista de variables ocultas, como RL, pero es no local, es decir, permite interacciones a distancia más rápidas que la luz.

Tenemos estas 3 teorías en competición, y las 3 son falsables. Por tanto, lo que debemos hacer es someterlas, como dice Popper, a experimentos que potencialmente puedan falsarlas. No obstante, mentiría si afirmara que, antes de que algún experimento demuestre que son falsas, tenemos las mismas expectativas para cada una de ser la correcta. Hay un contexto y tanto la paradoja de los cuervos como la historia de la ciencia nos dice que no podemos ignorarlo. El éxito de la física de los últimos 90 años nos obliga a aceptar que la probabilidad de que la mecánica cuántica sea la teoría más adecuada de las 3 para describir y predecir lo que ocurre en la naturaleza es alta. No obstante, como hoy estoy de buenas, voy a conceder también una probabilidad a priori también alta a la teoría RL, porque sí hay un aspecto en el que parece mejor que la mecánica cuántica: es realista, y todos tenemos el prejuicio filosófico de que las magnitudes físicas están ahí, con un valor bien definido antes de ser medidas.

Sin embargo, no tenemos tanta confianza en que la teoría RN sea la correcta, porque es la única de las 3 que es no local, es decir, que es incompatible con la relatividad especial, teoría que ha pasado un ingente número de test no triviales y que se ve todos los días rutinariamente en los aceleradores de partículas que funciona. Siendo muy generosos, vamos a asignar una probabilidad a priori de P(RN)=0,1 de que RN sea la teoría correcta, es decir, un 10%. En cambio, el 0,9 restante lo vamos a repartir por igual entre la mecánica cuántica y la teoría realista local. Por tanto, P(RL)=0,45 y P(MC)=0,45.

Se puede demostrar que toda teoría realista y local, como RL, implica que tienen que cumplirse una serie de desigualdades, denominadas desigualdades de Bell, pero que estas desigualdades se violan en un determinado experimento en la mecánica cuántica y en la teoría RN. Vamos a llamar E el "hecho" experimental de que se violen las desigualdades de Bell en ese experimento. Tanto MC como RN predicen que va a ocurrir E en ese experimento. Escribimos, por tanto, P(E|MC)=1, es decir, la probabilidad condicionada de que se dé la prueba E en el caso de que MC sea cierta es del 100%. Análogamente, P(E|RN)=1, mientras que P(E|RL)=0, ya que, si la teoría correcta es RL, entonces es imposible que ocurra E.

Entes de hacer el experimento, ¿esperamos que la violación de las desigualdades de Bell es un resultado muy o poco probable? La probabilidad que esperamos a priori de que se dé el resultado experimental E, que llamaremos probabilidad marginal de E, es:
P(E)=P(E|RL)·P(RL)+P(E|MC)·P(MC)+P(E|RN)·P(RN)=0·0,45+1·0,45+1·0,1=0,55
La probabilidad marginal de E es cercana al 50%, luego no sabemos qué va a ocurrir cuando hagamos el experimento.

Una vez hecho el experimento, entonces comprobamos que se ha dado el "hecho" E, es decir, que se han violado las desigualdades de Bell. Si aceptamos E como un hecho seguro, entonces lo que nos dice el falsacionismo es que debemos eliminar la teoría RL de nuestras hipótesis, ya que ésta predecía que E no iba a ocurrir. Ahora estamos seguros de que RL no es correcta. No obstante, todavía no sabemos cuál es la teoría correcta, ya que hay dos supervivientes, MC y RN. Es decir, la violación de las desigualdades de Bell lo que nos dice es que, o bien el mundo es no realista, o bien es no local. 

Si nos fijamos ahora, tras el experimento, las probabilidades que dan ambas teorías de que ocurra E no suman 1, sino que suman 0,55, pero ahora las probabilidades a posteriori sí deberían sumar 1, ya que sabemos que E ha ocurrido. Por tanto, nos vemos obligados a reescalar las probabilidades [Motl2008/01] que teníamos a priori para obtener así las probabilidades a posteriori dividiendo entre 0,55. Nótese que, como vamos a dividir P(MC) y P(RN) entre el mismo número P(E), no estamos cambiando las probabilidades relativas entre las dos teorías supervivientes, ya que el experimento no nos ha dicho nada sobre si es mejor MC o RN. Por tanto, la nueva probabilidad de que la mecánica cuántica sea la teoría correcta, sabiendo ahora que ocurre E, es:
P(MC|E)=P(MC)·P(E|MC)/P(E)=0,45/0,55=0,82
Mientras que la probabilidad de que RN sea la teoría correcta ahora que sabemos E también ha crecido en el mismo factor:
P(RN|E)=P(RN)·P(E|RN)/P(E)=0,1/=055=0,18 

La conclusión de este ejercicio es que la constatación experimental de que se violen las desigualdades de Bell nos descarta a cualquier teoría local de variables ocultas, pero la posibilidad de que el mundo sea realista y no local sigue viva. Eso sí, es una posibilidad en la que trabajan pocos físicos, ya que la comunidad científica considera mucho más probable que la teoría correcta para describir el fenómeno del entrelazamiento sea la mecánica cuántica. Por eso no se debe dar la imagen equivocada a los estudiantes ni al público en general de que las teorías de variables ocultas no locales constituyen una hipótesis en la que los físicos tienen confianza. No es así. Es una irresponsabilidad utilizar en la divulgación científica "no localidad" como sinónimo de "entrelazamiento cuántico", por no decir que es una mentira que lo único que hace es confundir a los estudiantes que están haciendo un gran esfuerzo por entender la mecánica cuántica. El lector interesado en este asunto puede consultar este vídeo.

La fórmula de Bayes


En general, las distintas teorías o hipótesis en competición, que llamaremos genéricamente H_i, con i un índice que en nuestro ejemplo anterior va desde 1 hasta 3, no tienen por qué dar probabilidades condicionales P(E|H_i) de que se produzca determinado resultado experimental E de valor 0 o 1. Por ejemplo, la mecánica cuántica en general da probabilidades de que sucedan los sucesos que pueden tomar también cualquier valor intermedio entre 0 y 1. Si extendemos la fórmula obtenida en el siguiente apartado al caso general, se tiene que la probabilidad posterior de que la hipótesis H_i sea correcta una vez constatada la prueba E es:
 P(H_i|E) = P(H_i)·P(E|H_i) / P(E)
A esta fórmula se la denomina fórmula de Bayes, y nos permite ver cómo deben evolucionar los grado de creencia de los científicos en las distintas hipótesis a medida que surgen nuevos resultados experimentales [Chalmers1999].

El ejemplo anterior nos ha servido para derivar, a partir del falsacionismo, una fórmula que va más allá del mismo, ya que la fórmula de Bayes no sólo da probabilidad cero a las hipótesis falsadas, sino que ¡nos permite estimar los nuevos grados de creencia en las hipótesis confirmadas por el nuevo experimento! Es decir, esta metodología bayesiana no sólo incluye la falsación, sino que es una metodología claramente inductiva. El suceso E="He visto un cuervo negro" hace que la probabilidad posterior de que la hipótesis H="Todos los cuervos son negros" y que denotamos por P(H|E) sea ahora, debido a la fórmula de Bayes, un poco más grande de lo que era la probabilidad a priori P(H).

El papel de la confirmación en la ciencia


Una de las limitaciones que tenía la filosofía de Karl Popper, y el motivo por el que era incapaz de describir cómo funciona realmente la ciencia, era su insistencia en negar que en ciencia se trabaje por inducción. La realidad es que las confirmaciones inductivas son muy importantes en el trabajo de los científicos, tan importantes como las falsaciones, y todos los estudios históricos así lo corroboran. El motivo por el que trabajamos con teorías como la mecánica cuántica es por su éxito en predecir el comportamiento de la naturaleza con gran exactitud, no porque las demás teorías han fallado. Cada vez que una teoría sobrevive a un test experimental riguroso que pretendía falsarla, los científicos de forma natural tienden a considerar a la teoría parcialmente confirmada y, de acuerdo con esto, le darán una mayor probabilidad de ser correcta, tendrán más confianza en ella [Sokal1998]. Esto es precisamente lo que se hace con las inferencias bayesianas. Los científicos están continuamente recolectando nuevas pruebas experimentales y resultados teóricos que van haciendo que unas hipótesis sean cada vez más probables y otras más improbables. Alguna vez un nuevo resultado falsa completamente a una teoría, como el caso que hemos visto de la violación de las desigualdades de Bell y las teorías locales de variables ocultas, pero no es cierto que todos los avances en ciencia sean de este tipo. Los cambios en los grados de confianza en las teorías por parte de los científicos tras la aplicación de la fórmula de Bayes pueden ir en ambos sentidos, tanto hacia arriba como hacia abajo, y en ambos casos la ciencia progresa [Motl2008/05].

Sin embargo, Popper se opuso durante toda su vida a cualquier idea de "confirmación" de una teoría y a asignar probabilidades a las mismas. A lo máximo que llegó ante las críticas fue a introducir el concepto de "corroboración" para justificar por qué pasar un test severo da a una hipótesis un estatus especial [Mayo1996]. Esto puede sonar bayesiano [DeQueiroz2001,DeQueiroz2003, Felsenstein,2003], pero no lo es, porque Popper se negó a aceptar que la ciencia funciona por grados de confianza de los científicos en las hipótesis [Helfenbein2005].

Lo que se puede decir y lo que no acerca de las inferencias bayesianas


Hay algunos aspectos de las inferencias bayesianas que hay que aclarar, pare evitar utilizarlas incorrectamente [Motl2008].

En primer lugar, es verdad que la fórmula de Bayes se puede poner en forma simétrica
P(H|E)·P(E)=P(E|H)·P(H),
donde cada uno de los dos lados de la igualdad se pueden interpretar como la probabilidad de que se den H y E simultáneamente, como indica la siguiente imagen:

Bayes theorem visualisation.svg
By Cmglee - Own work, CC BY-SA 3.0, Link

Pero esto no significa que la fórmula sea simétrica, es decir, que H juegue el mismo papel que E en las inferencias bayesianas, porque la interpretación de cada objeto en la fórmula es diferente. Por ejemplo, la probabilidad condicional P(E|H) es una predicción de la teoría H que se puede calcular a partir de ésta. Es la probabilidad objetiva de que el hecho E sea cierto de acuerdo a la teoría H. Sin embargo, la probabilidad posterior P(H|E) es una probabilidad subjetiva, el grado de confianza que tenemos ahora en que la teoría H sea cierta una vez hemos constatado el hecho E. La subjetividad de P(H|E) viene del hecho de que no se puede calcular objetivamente, como ocurre con P(E|H), sino que depende del grado de confianza subjetivo P(H) que teníamos previamente sobre la teoría H.

En segundo lugar, es importante darse cuenta de que, para hacer una inferencia bayesiana, no sólo necesitamos poder calcular P(E|H), la probabilidad de la prueba E suponiendo que la hipótesis H es verdadera, sino que también hay que estimar P(E|no H), la probabilidad de E en el caso de ser falsa la hipótesis, para así poder calcular P(E)= P(E|H)·P(H)+ P(E|no H)·P(no H). Pero esto no se puede hacer objetivamente, porque no podemos estimar la probabilidad de la prueba E a raíz de todas las hipótesis que no son H, entre otras cosas porque siempre hay hipótesis desconocidas que ha nadie se le ha ocurrido inventar todavía. Por ejemplo, cuando a Bohr se le ocurrió proponer su modelo atómico, éste contenía la hipótesis atrevida de que los electrones sólo circulan alrededor del núcleo en unas órbitas concretas de todas las posibles, pero entonces a nadie se le habría pasado por la cabeza proponer que la solución al problema estaba en establecer la hipótesis de que la trayectoria del electrón no existe en la naturaleza y que, en vez de órbitas, hay que hablar de orbitales. No obstante, el problema de no poder estimar P(E|no H) objetivamente no es un problema importante en la práctica, ya que para lo que sirve P(E|no H) es para poder calcular P(E) y, aunque P(E) sea subjetivo, es un factor común en la fórmula de Bayes para todas las hipótesis que están compitiendo (0,55 en nuestro ejemplo anterior de RL, MC y RN), con lo que ni siquiera necesitamos el valor de P(E) para discriminar cuál la mejor hipótesis de todas las que se han propuesto.

Otro aspecto a tener en cuenta es que el hecho de que las probabilidades bayesianas P(H|E) sean subjetivas hace que no tenga sentido calcularlas con un alto grado de exactitud. Lo único que nos da información sobre las mismas es su valor aproximado. Es decir, en el ejemplo del entrelazamiento cuántico podríamos haber asignado unas probabilidades previas distintas pero parecidas, por ejemplo, (0,4;0,4;0,2) o (0,47;0,47;0,06), y habríamos obtenido las mismas conclusiones cualitativas.

Lo que sí es importante es no ser demasiado radical a la hora de asignar probabilidades previas. Por ejemplo, si asignamos P(H)=0, entonces P(H|E) va a seguir siendo cero independientemente de si E ha confirmado o falsado a H. Lo mismo ocurre si P(H)=1, seguiremos teniendo P(H|E)=1 y ningún experimento nos haría salir de nuestra posición dogmática.

Cómo afrontan las inferencias bayesianas el problema del relativismo en la inducción


Una de las bondades de las inferencias bayesianas es que disminuyen el incómodo relativismo de las inferencias inductivas ilustrado en la paradoja de los cuervos, ya que el bayesianismo proporciona una condición necesaria y suficiente para que una prueba E confirme a una hipótesis H [Carnap1952, Maher1996, Fitelson2006]. Se tiene que E confirma a H si y sólo si claramente P(H|E)>P(H), es decir, si y sólo si se nota que la probabilidad de que H sea cierta ha aumentado al constatarse la prueba E .

Por ejemplo, "Todos los Cuervos Son Negros", en inglés "All Ravens Are Black"(ARAB), implica "Este Cuervo Es Negro", es decir "This Raven Is Black" (TRIB), luego P(TRIB|ARAB)=1. Por consiguiente, la probabilidad posterior de que ARAB sea cierta dada la prueba TRIB es, de acuerdo con la fórmula de Bayes:
P(ARAB|TRIB)=P(TRIB|ARAB)·P(ARAB)/P(TRIB)= P(ARAB)/P(TRIB)
donde
P(TRIB)= P(TRIB|ARAB)·P(ARAB)+P(TRIB|no ARAB)·P(no ARAB)=
=P(ARAB)+ P(TRIB|no ARAB)·P(no ARAB)
Como P(TRIB)<1, se tiene que P(ARAB|TRIB)>P(ARAB). Por tanto, la observación de un cuervo negro hace que nuestra confianza en que "Todos los cuervos son negros" crezca.

Por otro lado, "Todos los Cuervos Son Negros" es equivalente a "Todas las Cosas No-negras Son No-cuervos", es decir:
ARAB="All Ravens Are Black"="All Non-black things Are Not ravens"=ANAN
Pero ANAN implica "Esta cosa No-negra Es No-cuervo", es decir "This Non-black thing Is Not a raven" (TNIN). En lenguaje matemático, P(TNIN|ARAB)=1. Por consiguiente:
P(ARAB|TNIN)=P(TNIN|ARAB)·P(ARAB)/P(TNIN)= P(ARAB)/P(TNIN)
Este caso se tiene
P(TNIN)= P(TNIN|ARAB)·P(ARAB)+P(TNIN|no ARAB)·P(no ARAB)=
=P(ARAB)+P(TNIN|no ARAB)·P(no ARAB)
Y es claro que P(TNIN) es aproximadamente 1 porque P(TNIN|H) es casi 1 para cualquier hipótesis H razonable, ya que sólo un ridículamente pequeño porcentaje de cosas en el mundo son cuervos. Por consiguiente, P(ARAB|TNIN) es casi igual a P(ARAB), es decir, nuestra confianza en que todos los cuervos son negros apenas ha mejorado al avistar una cosa no negra que no es cuervo, con lo que no podemos decir que TNIN confirme a ARAB.

A estas alturas el lector debería estar ya convencido de que la fórmula de Bayes nos indica rigurosamente si una prueba E confirma o no a una hipótesis H y, además, nos dice cuánto ha de aumentar nuestra confianza en H en el caso de E la confirme. Por tanto, aunque las probabilidades bayesianas sean subjetivas, la teoría de la inferencia bayesiana constituye la teoría objetiva de la inferencia científica que estábamos buscando en el artículo anterior [Dorling1979, Howson1989]. Dados un conjunto de probabilidades previas y alguna prueba nueva, la fórmula de Bayes dicta de modo objetivo cuáles deben ser las probabilidades nuevas, las posteriores, vista dicha prueba. No hay ninguna diferencia a este respecto entre el bayesianismo y la lógica deductiva. Es verdad que las probabilidades subjetivas iniciales P(H) las pones tú "a ojo", y eso afecta a P(H|E), pero la lógica deductiva tampoco está exenta de este problema, puesto que la lógica tampoco tiene nada que decir acerca del origen de las proposiciones que constituyen las premisas de una deducción sino que dice simplemente qué se sigue de dichas proposiciones una vez que han sido dadas.

Más todavía, se puede ver que si las creencias previas de los científicos particulares sobre una determinada hipótesis no difieren enormemente en su comienzo, entonces estás acaban convergiendo después de aplicar la información de las pruebas. En efecto, tras una prueba E que confirma una hipótesis H, es decir, si P(E|H)=1, el científico que comenzó con una P(H) baja pensará que P(E) es menos probable que el científico que daba P(H) alta, con lo que escalará P(H) según un factor (1/P(E)) mayor que el científico que daba P(H) alta. Es decir, el científico escéptico irá aproximando su grado de creencia en la hipótesis al del científico más convencido, que apenas modificará su grado de creencia posterior tras la presentación de la prueba. De esta forma, opiniones subjetivas claramente distintas se irán acercando de una manera objetiva en respuesta a la evidencia, por lo que no importa mucho qué valores absolutos de los números P(H_i) y P(E) se introducen en los cálculos, siempre que éstos sean del orden que refleje las expectativas previas de los científicos.

La ciencia progresa mediante la falsación de conjeturas prudentes y la confirmación de conjeturas audaces


Una vez convencidos de que la teoría bayesiana de la confirmación es una forma de razonamiento válido, vamos a ver qué lecciones podemos aprender de la misma:

Confirmación de una conjetura prudente


Supongamos que H_1 es una hipótesis muy prudente, algo que a priori se espera que es verdad, por ejemplo, que la luz de una estrella lejana va a seguir viajando en línea recta cuando pasa cerca del Sol. A una hipótesis prudente le asignamos P(H_1) muy cercana a 1. En 1919 Eddington aprovechó un eclipse de Sol para fotografiar las estrellas cuyas luz estaba pasando cerca del Sol. Si el resultado hubiese sido que la posición de estas estrellas no ha cambiado (resultado experimental E_1), entonces, la nueva probabilidad de la hipótesis H_1 sería:
P(H_1|E_1) = P(H_1)·P(E_1|H_1) / P(E_1)= P(H_1) / P(E_1)
Como el resultado experimental E_1 era lo que se esperaba, P(E_1) es cercano a 1, de tal forma que P(H_1|E_1) no es mucho más grande de lo que ya era P(H_1). Por tanto, el resultado del experimento no ha aportado gran cosa a la ciencia.

Lo mismo ocurre si repetimos un experimento ya hecho con idéntico resultado, las probabilidades de las distintas hipótesis no van a cambiar apenas, y este es el motivo por el que en ciencia no suele considerarse relevante que se repita un resultado. Tan pronto como una teoría ha sido confirmada por un experimento una vez, los científicos no considerarán que la repetición del mismo experimento bajo las mismas circunstancias confirme la teoría en tal alto grado como el primer experimento. También se desprende de este análisis que una teoría es confirmada mejor por diversas clases de pruebas que por una de una clase particular, ya que los esfuerzos por confirmar una teoría por una sola clase de pruebas tiene rendimientos 1/P(E) decrecientes al ir creciendo P(E), mientras que si la prueba E pertenece a una nueva clase, P(E) puede ser baja.

Falsación de una conjetura prudente


En cambio, el resultado del experimento fue que las estrellas en las fotografías de Eddington habían cambiado de posición (lo llamaremos resultado E_2). A este fenómeno se le conoce hoy en día como "efecto de lente gravitacional" y es utilizado rutinariamente por los astrónomos para detectar grandes masas por su efecto sobre los rayos de luz. Como P(E_2|H_1)=0, entonces P(H_1|E_2)=0, con lo que hemos falsado la hipótesis H_1: los rayos de luz no siguen en línea recta cuando pasa cerca del Sol.

Falsación de una hipótesis audaz


Por otro lado, la hipótesis que hizo Einstein en el marco de su teoría general de la relatividad es que las grandes masas perturban el espacio-tiempo a su alrededor, lo que hace que los rayos de luz se curven cerca de estas masas (hipótesis H_2). Se trata de una hipótesis audaz, que nadie esperaba, luego P(H_2) es muy cercana a cero. Si el resultado del experimento de Eddington hubiese sido E_1, dado que P(E_1|H_2)=0, entonces P(H_2|E_1)=0, lo cual no habría aportado prácticamente ninguna información a los científicos porque las probabilidades a priori y a posteriori habrían sido prácticamente las mismas.

Confirmación de una hipótesis audaz


Sin embargo, como el resultado del experimento fue E_2, entonces:
P(H_2|E_2) = P(H_2)·P(E_2|H_2) / P(E_2)= P(H_2) / P(E_2)
y, como P(E_2) no era grande, ya que apenas había hipótesis o teorías que predijeran que las estrellas en las fotos de Eddington fueran a salir con la posición cambiada, entonces el resultado del experimento nos obliga a considerar que P(H_2|E_2) es mucho mayor que P(H_2). Es decir, el resultado del experimento no nos asegura que la conjetura audaz H_2 sea cierta, pero su confirmación sí hace que ahora tengamos mucha más confianza en ella. Proponer, como hizo Einstein, que los campos gravitatorios curvan las trayectorias de los rayos de luz, es una conjetura audaz muy falsable que nadie esperaba. Nadie puede negar que la confirmación por parte de Eddington de que esto ocurría supuso un gran avance para la ciencia.

Introducción de modificaciones "ad hoc"


Por supuesto, uno puede tratar de salvar a la hipótesis H_1 introduciéndole modificaciones "ad hoc" para que P(E_2|H_1 y "ad hoc")=0, como, por ejemplo, suponer que el hecho de que la Luna y el Sol estén alienados con la Tierra provoca que se envíe una señal muy potente que viaja más rápida que la luz y que hace que estas estrellas cambien de posición durante el eclipse, para luego volver a su posición original cuando éste acaba. En este caso tendríamos:
P(H_1 and "ad hoc"|E_2) = P(H_1 and "ad hoc")·P(E_2| H_1 and "ad hoc") / P(E_2)= 
=P(H_1 and "ad hoc") / P(E_2)
pero ahora la hipótesis es tan enrevesada que P(H_1 y "ad hoc")<P(H_1) tiene que ser pequeña, con lo que P(H_1 and "ad hoc"|E_2) es prácticamente igual de pequeña que P(H_1). No sólo no hemos aprendido mucho, sino que la hipótesis "ad hoc" que hemos introducido sigue siendo poco creíble.

Las hipótesis "ad hoc" no hacen que se produzca progreso en ciencia. Este es el motivo por el que se exige que a las teorías que sean cada vez más falsables, para no perder así el tiempo con ellas. Nótese que las teorías RN de nuestro ejemplo anterior se pueden entender como modificaciones "ad hoc" para salvar el prejuicio filosófico de que la naturaleza es realista. Por eso hemos dado a P(RN) el valor más bajo de todas las probabilidades a priori.

La navaja de Occam


También podemos hacer una teoría o un modelo muy complicado con muchos parámetros, ya que cuanto más parámetros tenga, más fácil será que se ajuste a los resultados experimentales, es decir, más hechos experimentales E la confirmarán. Pero cuanto más enrevesada sea H, menor P(H) vamos a asignarle a priori, ya que ésta tiene que estar distribuida entre un gran número de posibilidades (todos los posibles valores de los parámetros). Por ello, ante pruebas experimentales similares, la fórmula de Bayes nos dice que tenemos que tener más confianza en las teorías más simples.

En resumen: con la falsación de una conjetura audaz, la confirmación de una conjetura prudente o la introducción de arreglos "ad hoc" o de modelos muy complicados se aprende muy poco. En cambio, confirmar las conjeturas audaces y falsar las conjeturas prudentes es lo que da lugar a adelantos en ciencia.

Pasos del "método científico"


De acuerdo con esta concepción falsacionista sofisticada de la ciencia, extendida con una teoría de la confirmación bayesiana, podemos describir, a grandes rasgos, una serie de pasos necesarios que tiene que tener un buen método científico:
  • Planteamiento de una o varias preguntas. Es evidente que para hacerse una pregunta algo ha tenido que llamar nuestra atención, ya sea estudiando lo que se conoce actualmente sobre un tema o haciendo alguna observación. Esto implica que no es posible investigar sin ningún tipo de prejuicio: el conocimiento previo y las expectativas que se tengan condicionan las preguntas que nos hacemos. Hay que señalar también que este paso es más importante de lo que a primera vista podría parecer, ya que hay veces que el mayor mérito está en ser capaz de plantearse las preguntas adecuadas. Einstein era un fiera haciendo esto.
  • Formulación de hipótesis que traten de dar respuesta a esas preguntas. Éstas tienen que ser falsables. Evidentemente, al hacer esto también estamos condicionados por lo que sabemos previamente sobre el tema. Es importante señalar que la puesta en práctica del método científico nos aporta conocimiento incluso aunque en este punto hallamos formulado una hipótesis falsa.
  • Diseño de experimentos para poner a prueba las hipótesis. Sólo una vez que hemos formulado alguna hipótesis que responda a nuestra pregunta, y que aceptamos también un cuerpo de conocimientos adicionales (a los que llamaremos hipótesis auxiliares), que damos por seguros, tenemos una guía de qué tipos de dispositivo experimental debemos montar (de los infinitos posibles), cómo vamos a manipularlo (de las infinitas posibilidades que tenemos para hacer esto), qué magnitudes físicas vamos a medir (de las infinitas posibles) y cómo vamos a tratar los datos experimentales para sacar conclusiones. Sin una teoría previa, por rudimentaria que sea (formada por la hipótesis que responde a nuestra pregunta y por las hipótesis auxiliares) no es posible hacer ningún experimento.
  • Ejecución del experimento. Esto implica la toma de datos y la resolución de los posibles problemas auxiliares que vayan surgiendo. La mejor forma de organizar los datos experimentales es mediante tablas.
  • Análisis de los resultados del experimento. La mejor forma de analizar los datos experimentales es representándolos mediante gráficas.
  • Obtención de conclusiones a partir de los resultados del experimento. ¿Podemos concluir que la hipótesis que hemos sometido a prueba ha sido falsada? Si, por el contrario, ha sido confirmada, la probabilidad posterior P(H|E) ¿ha crecido mucho con respecto a P(H) o sigue prácticamente igual?.
  • Presentación del trabajo a la comunidad científica, tanto mediante su publicación en revistas científicas especializadas como mediante su exposición en congresos científicos. De la discusión sobre los resultados del mismo con el resto de la comunidad surgen nuevos interrogantes que nos llevan de nuevo al primer punto.

Problemas del falsacionismo


Aunque  nadie discute que un hipotético resultado experimental particular que está en contradicción con una hipótesis general nos lleva a la consecuencia lógica inevitable de que la hipótesis es falsa, hoy en día sabemos que el falsacionismo, incluso en la versión sofisticada que hemos descrito en este artículo enriquecido con los grados de confianza bayesianos, es una concepción del quehacer científico alejada de la realidad por ingenua e idealizada. El falsacionismo estricto es un dogma filosófico que ni es ni ha sido nunca relevante en el desarrollo de la actividad científica.

En primer lugar, el criterio falsacionista para que una hipótesis o teoría pueda considerarse científica está siendo usado incorrectamente para atacar construcciones que son perfectamente aceptables como teorías científicas, como la teoría de cuerdas o el paradigma inflacionario, por el hecho de contener un gran número de elementos que no pueden ser medidos o falsados. Ya hemos visto en el artículo anterior que el postulado reduccionista de los positivistas era demasiado restrictivo para delimitar ciencia de lo que no es. Si nos tomáramos al pie de la letra este postulado, habría que declarar a la mayor parte del conocimiento científico actual como "carente de significado". De hecho, los científicos nunca trabajan de acuerdo con ese postulado reduccionista, sino con otro menos restrictivo:
"Si algo no se puede definir operacionalmente a partir de los "hechos" de la experiencia, entonces es perfectamente legítimo construir teorías en las que ese algo no tiene significado físico, pero no estamos obligados a ello."
No se puede exigir a una teoría, como hacen muchos falsacionistas, que los elementos que no te gustan sean directamente contrastables con la experiencia. Si no es así, eso no es una debilidad de la teoría. Si existe una teoría del todo, no tenemos garantías de que ésta tenga necesariamente que poder ser comprobada con dispositivos que podamos imaginar hoy en día, ni mucho menos con aparatos que sean fáciles de construir [Motl2015]. Las teorías verdaderamente interesantes están normalmente localizadas en la frontera donde las cosas empiezan a no poderse comprobar experimentalmente.

En segundo lugar, cuando sometemos una hipótesis o a una teoría a una prueba experimental, lo que se comprueba no es nunca esa hipótesis o teoría aislada, sino a ésta junto con un conjunto de hipótesis auxiliares, algunas hechas explícitas por los científicos y otras implícitas. Esto implica que siempre hay alguna forma de salvar a nuestra hipótesis o teoría de la falsación, cambiando a las demás hipótesis cuando el experimento da un resultado negativo (a esta idea se la denomina "tesis de Duhem-Quine"). Es decir, que en rigor ninguna hipótesis ni teoría sería científica según el criterio falsacionista, ya que ninguna es falsable, sino que lo que realmente es falsable es la totalidad del conocimiento científico. Por tanto, el criterio falsacionista para distinguir ciencia de pseudociencia es, como todos los demás intentos que se han hecho de establecer un método científico ahistórico y universal, tan estricto que, si se aplicara rigurosamente, nos impediría hacer ciencia.

De hecho, los trabajos de T.S. Kuhn [Kuhn1962] ) y P. Feyerabend [Feyerabend1975] han demostrado que no sólo los científicos en el pasado han conseguido progresar ignorando falsaciones claras, sino que el progreso científico mismo sería imposible si los científicos abandonasen una teoría ante las primeras pruebas experimentales en contra. Este "dogmatismo" también juega un papel importante en la ciencia, ya que permite que algunos científicos sigan trabajando y desarrollando hipótesis y teorías que al principio estaban en desventaja respecto a otras, pero que, tras desarrollarse, se acaban imponiendo como más adecuadas para comprender la realidad.

Conclusión


Hemos visto como, a partir del falsacionismo sofisticado, es posible derivar, si aceptamos ir más allá de la propuesta de Popper asignando grados de confianza a las distintas hipótesis, las reglas de la inferencia bayesiana. Estas reglas nos indican que con la falsación de una conjetura audaz, la confirmación de una conjetura prudente o la introducción de arreglos "ad hoc" se aprende muy poco. En cambio, confirmar las conjeturas audaces y falsar las conjeturas prudentes es lo que da lugar a adelantos en ciencia, lo que nos da una buena guía sobre cómo debe estar orientada nuestra práctica científica. Sin embargo, la aplicación dogmática del criterio falsacionista para distinguir ciencia de pseudociencia sería incompatible con la ciencia misma, asunto que abordaremos en mayor profundidad en un artículo posterior.

Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

Referencias:

  • Carnap R. (1950), Logical Foundations of Probability, second edition, Chicago: The University of Chicago Press, 1962. (First published 1950.)
  • Chalmers A. (1999), What Is This Thing Called Science?, 3rd edn, Milton Keynes: Open University Press.
  • De Queiroz, K., Poe, S. (2001). "Philosophy and phylogenetic inference: a comparison of likelihood and parsimony methods in context of Karl Popper's writings on corroboration". Syst. Biol. 50, 305–321.
  • De Queiroz, K., Poe, S. (2003). "Failed refutations: further comments on parsimony and likelihood methods and their relationship to Popper's degree of corroboration". Syst. Biol. 52, 352–367.
  • Dorling J. (1979), "Bayesian Personalism and Duhem's Problem", Studies in History and Philosophy of Science, 10
  • Felsenstein, J. (2003). Inferring Phylogenies. Sinauer Associates, Sunderland, Massachusetts.
  • Feyerabend P. (1975), Against Method. London: Verso
  • Fitelson, B. and Hawthorne J. (2006), “How Bayesian Confirmation Theory Handles the Paradox of the Ravens,” in E. Eels and J. Fetzer (eds.), The Place of Probability in Science, Chicago: Open Court.
  • Helfenbein K.G., Desalle R (2005), "Falsifications and corroborations: Karl Popper's influence on systematics", Molecular phylogenetics and evolution, 35.
  • Howson C. and Urbach P. (1989), Scientific Reasoning: The Bayesian Approach, La Salle, Illinois, Open Court
  • Kuhn T.S. (1962), The Structure of Scientific Revolutions, 3rd edn, Chicago: University of Chicago Press
  • Maher P, (1996), “The Hole in the Ground of Induction,” Australasian Journal of Philosophy, 74(3): 423–432.
  • Mayo, D.G., 1996. Error and the Growth of Experimental Knowledge. The University of Chicago Press, Chicago.
  • Motl L. (2008/01), "Bayesian Inference", TRF https://motls.blogspot.com.es/2008/01/bayesian-inference.html?m=1
  • Motl L. (2008/05) "Karl Popper and 21st century enemies of science". TRF http://motls.blogspot.com.es/2008/05/karl-popper-and-21st-century-enemies-of.html
  • Motl L. (2015) Tom Siegfried's delusions about the reality of the wave function. TRF
  • Popper (1959): The Logic of Scientific Discovery, London: Routledge.
  • Sokal, Alan; Jean Bricmont (1998). Intellectual Impostures. London: Profile Books. p. xii. ISBN 1-86197-631-3.

No hay comentarios:

Publicar un comentario