31 ene 2021

El problema de la demarcación entre ciencia y pseudociencia

El nombre de pseudociencia se aplica a toda creencia o práctica que es presentada como ciencia, pero que en realidad no lo es. Las pseudociencias constituyen un grupo bastante heterogéneo, ya que en esta definición se incluyen:
  • creencias antiguas con cierto arraigo, como la astrología.
  • nuevas modas, muchas veces impulsadas por colectivos de timadores que pretenden obtener beneficios económicos valiéndose del prestigio de la ciencia. Aquí entran por ejemplo terapias que no funcionan más allá del efecto placebo como la homeopatía.
  • ideologías dogmáticas impuestas por los que ostentan el poder. Aquí entra por ejemplo la economía neoliberal, cuyos mantras utópicos nos son vendidos como si fueran leyes científicas bien establecidas.

A primera vista uno podría pensar que el problema de las pseudociencias es un problema fácil de resolver. Basta con enseñar a la población la diferencia entre lo que es ciencia y lo que no lo es. Y esto podemos hacerlo a dos niveles: con una mejor educación científica en las escuelas, y con una mejor divulgación científica en los medios de comunicación.

Título de un vídeo de un conocido medio que realiza una importante labor para contrastar noticias y desmentir bulos.

Sin embargo, ¿realmente somos capaces de dar unas pautas sencillas que nos permitan demarcar sin ambigüedad qué creencia o práctica es científica? ¿Realmente el sistema educativo está contribuyendo a dar a la población la formación científica necesaria para distinguir ciencia de pseudociencia? ¿Está ayudando también la divulgación científica que se está haciendo a esta empresa? ¿Nos están ayudando los científicos profesionales? ¿Nos ayudan los profesionales de la salud a que no caigamos en los engaños de las pseudoterapias? Desgraciadamente, ninguna de estas preguntas tiene una respuesta afirmativa. En este artículo vamos a analizar sólo la primera pregunta. El lector interesado en las demás preguntas puede consultar este otro artículo. Por tanto, aquí nos vamos a centrar en responder a esta pregunta: ¿Realmente somos capaces de dar unas pautas sencillas que nos permitan demarcar sin ambigüedad qué creencia o práctica es científica?


Para responder a esta pregunta, vamos a hacer un breve repaso histórico a este problema. Aristóteles fue el primer filósofo de la ciencia que destacó la demarcación de las interpretaciones científicas de las no científicas. Sostenía que tal demarcación debía lograrse antes de subdividir las interpretaciones científicas en aquellas que son aceptables y aquellas que no lo son. Es decir, una cosa es demarcar qué hipótesis son merecedoras de ser evaluadas científicamente y, otra bien distinta, investigar cuáles de esas hipótesis consideradas científicas han de ser aceptadas como verdaderas.

Galileo aplicó posteriormente la idea de Aristóteles para excluir del dominio de la ciencia ciertas interpretaciones del propio Aristóteles.
  • Por ejemplo, como Galileo consideraba que el Libro de la Naturaleza está escrito en lenguaje matemático, esto le llevó a restringir las interpretaciones científicas a las proposiciones que versan sólo sobre números, posiciones, tamaños, formas y velocidades, cualidades que él denominó primarias. En cambio, las cualidades secundarias (colores, sabores, olores y sonidos) sólo existen en la mente del observador y no nos sirven para explicar los fenómenos. En esencia, la ciencia actual sigue esta doctrina de Galileo. Por ejemplo, una cosa es la frecuencia de vibración de la luz (que es una cualidad primaria), y otra de qué color percibimos esa luz (que es una cualidad secundaria). Ésta última pertenece al sujeto, ya que, como ocurre con la famosa foto del vestido que se hizo viral en las redes sociales, una misma señal, con un espectro de frecuencias concreto, puede provocar en distintos sujetos la visión de distintos colores, de forma que éstos no se ponen de acuerdo sobre si el vestido es azul y negro o blanco y dorado. Otro ejemplo es el color rosa. No forma parte del arco iris porque el color rosa no corresponde a ninguna frecuencia de vibración de la luz. Lo “construye” la mente del observador cuando llega a la retina una superposición de determinadas frecuencias asociadas al color rojo y el violeta.

El vestido es blanco y dorado o negro y azul en función del contexto en el que se observen los colores. El color que observamos es una cualidad secundaria, mientras que el espectro de la onda electromagnética que llega a nuestro ojo es una cualidad primaria.
Fuente: https://www.reddit.com/r/gifs/comments/69jbzo/yellow_or_blue_its_up_to_you_to_choose/?ref=share&ref_source=link

  • Galileo excluyó también de la ciencia interpretaciones que apelaban a «movimientos naturales» hacia «lugares naturales». Newton también asumió este postulado cuando afirmó que las manzanas no caen de los árboles para llegar a su posición natural, que es abajo, como sostenía Aristóteles, sino porque la Tierra ejerce una fuerza sobre ellas hacia abajo. Este principio, denominado Principio de Objetividad de la Naturaleza, consiste en la negación sistemática de que pueda obtenerse verdadero conocimiento sobre la naturaleza si interpretamos los fenómenos en términos de causas finales, propósitos u objetivos a alcanzar. Aunque no tenemos una demostración rigurosa del Principio de Objetividad de la Naturaleza, la historia de la ciencia nos dice que aceptar este postulado es una condición necesaria para que una línea de investigación pueda ser productiva.

El éxito de la física de Newton, que insistió en que la ciencia se debe ocupar sólo de aquellas propiedades cuyos valores pueden ser medidos, dio lugar al desarrollo de una doctrina filosófica denominada operacionalismo. Científicos y filósofos como Mach, Poincaré y Duhem sostenían que los conceptos en ciencia deben definirse haciendo referencia a operaciones físicas de medición, aunque, por ejemplo, Duhem tenía una posición más abierta, ya que:
  • Admitió que los conceptos primarios que estableció Galileo son provisionales. Las cualidades primarias sólo lo son al servicio de alguna teoría y, al ser esta teoría sustituida por otra, podrían cambiar.
  • Admitió que no todos los términos de una teoría necesitan hallarse ligados a operaciones de medición para que la teoría pueda ser considerada científica. Sólo es necesario que sus conclusiones hagan afirmaciones sobre conceptos cuyos valores puedan medirse.

Así, por ejemplo, tanto la teoría de la relatividad de Einstein como la mecánica cuántica, que invalidan a la física de Newton, tienen postulados que no son directamente comprobables experimentalmente. Sin embargo, estos postulados tienen consecuencias que sí se someten al juicio de los experimentos y han salido victoriosas de tests altamente no triviales, lo que llevó a los científicos durante la primera mitad del siglo XX a aceptar estas teorías, no ya como científicas, sino también como teorías científicas bien establecidas.

Sin embargo, el shock que supuso el surgimiento de la relatividad y la mecánica cuántica hizo aumentar todavía más la desconfianza en aquellas hipótesis o conceptos que están desconectados de las mediciones experimentales. Por ejemplo, según la relatividad especial, dos sucesos que son simultáneos para un observador no lo van a ser para otro observador que se mueva con respecto al primero, con lo que nos llevamos la sorpresa de que el concepto de simultaneidad, como propiedad de los sucesos, queda excluido de la ciencia. La simultaneidad, como propiedad que caracteriza a algunos conjuntos de sucesos, sólo existía en nuestra cabeza, no en la naturaleza. Lo mismo ocurre con el concepto de trayectoria. En mecánica cuántica las partículas elementales se mueven sin seguir ninguna trayectoria bien definida. Por eso decimos que los electrones que se mueven alrededor de los núcleos atómicos siguen orbitales (nubes de probabilidad), no órbitas. Algo tan básico como el concepto de trayectoria, que, desde Galileo, nadie discutía que fuera una cualidad primaria, ahora resulta que es una invención de nuestra mente. No existe en la naturaleza.

Esto llevó a algunos científicos y filósofos de la ciencia a postulados más radicales todavía. El premio Nobel de Física, P.W. Bridgman, por ejemplo, no sólo aceptaba el postulado reduccionista de que todos los conceptos que no estén asociados a operaciones de medición deben ser excluidos de la ciencia, sino que, además, llegó a afirmar que el significado de un concepto no es sino el conjunto de operaciones destinadas a darle valor. Así nos aseguramos de que nunca más vuelva a ocurrir que consideremos como científicos conceptos como la simultaneidad o la trayectoria que son invenciones de nuestra mente. Sin embargo, esto lleva a absurdos como considerar que el concepto “temperatura medida con un termómetro de mercurio” es distinto al de “temperatura medida mediante un termopar” y, de hecho, el mismo Bridgman acabó revisando su criterio de demarcación admitiendo
  • que el análisis de ciertas operaciones a partir de otras operaciones no puede llevarse a cabo indefinidamente. Se tienen que colar necesariamente primeros principios y conceptos no relacionados con la medición.
  • que en una teoría científica pueden existir conceptos que se definan, no mediante operaciones físicas, sino sólo mediante “operaciones de papel y lápiz” que los liguen a otros conceptos.

Desde los filósofos presocráticos las ideas científicas se estructuran en torno a primeros principios altamente abstractos no ligados directamente con ninguna operación, pero que se acaban conectando con la práctica a partir de sus consecuencias, y esta característica es, según el Nobel de Física W. Heisenberg, la principal responsable del éxito de la ciencia moderna respecto de otras formas de conocimiento, como nos cuenta en su obra La imagen de la naturaleza en la física actual (actual de 1955, claro está). Este es el motivo por el que otros intentos de establecer un criterio de demarcación como el criterio de verificabilidad del Círculo de Viena o el falsacionismo de Popper no han terminado de cuajar:
  • Por ejemplo, según el criterio de verificabilidad, la ciencia sólo debe ocuparse de enunciados empíricamente significativos, es decir, enunciados tales que sea posible especificar las condiciones que harían verdadero al enunciado. Este principio excluye enunciados universales como, por ejemplo, “todas las partículas con espín semientero obedecen al principio de exclusión de Pauli”, ya que es imposible comprobarlo con todas. Además, tampoco está claro qué es posible hacer y qué no. ¿Es posible según la técnica actual? ¿Según lo que dejan o no hacer las leyes de la naturaleza?
  • En cambio, según el criterio falsacionista, la ciencia sólo debe ocuparse de enunciados que sean falsables, es decir, que exista algún hipotético resultado experimental que pueda entrar en contradicción con ellos. Esto excluye enunciados existenciales del tipo “Existe una partícula de materia oscura con una masa similar a la del protón”, porque, por muchas partículas de materia oscura que detectemos con masa distinta, siempre queda la posibilidad de que aquella que tiene la masa del protón no haya sido detectada todavía.

Podríamos pensar en un criterio menos estricto, el de confirmabilidad, defendido por algunos filósofos positivistas como Ayer, que establece que para que un enunciado pueda ser considerado científico es necesario que exista un hipotético resultado experimental que lo apoye (sin necesidad de que lo pruebe). Sin embargo, este criterio tampoco está exento de problemas, ya que, según este criterio, el que una oración sea o no empíricamente significativa depende del modo en que se use, Por ejemplo, “el agua a presión de 1 atm se congela a 0ºC” puede usarse como una generalización empírica que cumple todo el agua del universo, o como una definición de la escala de temperaturas, o incluso como una definición de qué es agua y qué no lo es. De hecho, el filósofo y lógico matemático Quine se dio cuenta de que no hay una forma universal y natural de distinguir entre los enunciados analíticos (aquellos cuya verdad está contenida en ellos mismos) y los enunciados sintéticos (aquellos cuya verdad depende de lo que digan los experimentos).

Esto nos lleva a un problema todavía más complejo. Cuando sometemos a una hipótesis a un test experimental, nunca lo hacemos con ella aislada, sino en conjunción con otras hipótesis auxiliares. Si el resultado del experimento es negativo, nunca podemos concluir con seguridad que la hipótesis es falsa, ya que lo que podría ser falso es alguna de las hipótesis auxiliares. Por ejemplo, en física cuántica hay resultados experimentales que se pueden interpretar como violaciones de las leyes de la lógica de enunciados si nos empeñamos en aceptar la hipótesis de que las magnitudes físicas toman siempre valores bien definidos sean o no medidas (la diferencia cuando no son medidas es simplemente que no sabemos cuál es ese valor). Sin embargo, la mecánica cuántica no interpreta esos resultados experimentales de esa manera, sino que considera que la lógica de enunciados no se viola. Lo que se viola es la hipótesis de que las magnitudes físicas toman valores bien definidos siempre, incluso cuando no los medimos. En muchos procesos en mecánica cuántica es la medición la que hace que esas magnitudes físicas tomen valores bien determinados, de tal manera que cuando no se mide muchas veces las magnitudes físicas no toman un valor bien definido. Por ejemplo, en un átomo de hidrógeno en el estado de menor energía la posición del electrón no toma un valor bien definido. Eso no significa que el electrón no esté en ningún sitio. El electrón está, pero no en una posición bien definida. Su posición está indeterminada en una nube de probabilidad.

Un ejemplo más claro de entender es la siguiente historia ficticia de Lakatos que, aunque no es real, se parece mucho a lo que ocurrió con la órbita anómala del planeta Mercurio, y también con lo que está ocurriendo ahora en astrofísica con la materia y la energía oscuras:

"La historia se refiere a un caso imaginario de conducta anómala de un planeta. Un físico de la era preeinsteiniana combina la mecánica de Newton y su ley de gravitación (N) con las condiciones iniciales aceptadas (I) y calcula mediante ellas la ruta de un pequeño planeta que acaba de descubrirse, p. Pero el planeta se desvía de la ruta prevista. ¿Considera nuestro físico que la desviación estaba prohibida por la teoría de Newton y que, por ello, una vez confirmada tal ruta, queda refutada la teoría N? No. Sugiere que debe existir un planeta hasta ahora desconocido, p', que perturba la ruta de p. Calcula la masa, órbita, etc., de ese planeta hipotético y pide a un astrónomo experimental que contraste su hipótesis. El planeta p' es tan pequeño que ni los mayores telescopios existentes podrían observarlo: el astrónomo experimental solicita una ayuda a la investigación para construir uno aún mayor. Tres años después el nuevo telescopio ya está disponible. Si se descubriera el planeta desconocido p', ello sería proclamado como una nueva victoria de la ciencia newtoniana. Pero no sucede así. ¿Abandona nuestro científico la teoría de Newton y sus ideas sobre el planeta perturbador? No. Sugiere que una nube de polvo cósmico nos oculta el planeta. Calcula la situación y propiedades de la nube y solicita una ayuda a la investigación para enviar un satélite con objeto de contrastar sus cálculos. Si los instrumentos del satélite (probablemente nuevos, fundamentados en una teoría poco contrastada) registraran la existencia de la nube conjeturada, el resultado sería pregonado como una gran victoria de la ciencia newtoniana. Pero no se descubre la nube. ¿Abandona nuestro científico la teoría de Newton junto con la idea del planeta perturbador y la de la nube que lo oculta? No. Sugiere que existe un campo magnético en esa región del universo que inutilizó los instrumentos del satélite. Se envía un nuevo satélite. Si se encontrara el campo magnético, los newtonianos celebrarían una victoria sensacional. Pero ello no sucede. ¿Se considera este hecho una refutación de la ciencia newtoniana? No. O bien se propone otra ingeniosa hipótesis auxiliar o bien... toda la historia queda enterrada en los polvorientos volúmenes de las revistas y nunca vuelve a ser mencionada".

Esto nos lleva a la tesis de Duhem-Quine: ante un hecho experimental que parece estar en contra, siempre es posible salvar a nuestra ley favorita de la falsación añadiendo o modificando el resto de enunciados de la teoría o los supuestos auxiliares. Si ningún enunciado científico tomado de forma aislada es falsable ni confirmable, entonces la diferencia entre ciencia y pseudociencia es más difusa de lo que a primera vista podría parecer, y tiene más que ver con el grado de calidad del trabajo experimental y teórico que se realiza que con la naturaleza del mismo. Pero esto haría imposible dar unas pautas generales a la población para que puedan distinguir ciencia de pseudociencia sin necesidad de entrar en los detalles de cada disciplina. Los científicos que trabajan en cada disciplina sí que son capaces de distinguir qué es ciencia y qué no lo es dentro de su campo.

En conclusión, la única manera rigurosa de distinguir bien qué es ciencia y qué no lo es pasa por estudiar la ciencia misma en profundidad. No hay atajos. La pereza intelectual no n os sirve. Lo que hacen algunos divulgadores cuando tratan de dar unos puntos generales a tener en cuenta para ayudar a la gente a distinguir ciencia de pseudociencia tiene una utilidad muy limitada. En rigor, son sólo los expertos en cada campo los que que tienen las herramientas para distinguir ciencia de pseudociencia, y sólo dentro de su campo. El problema es que a los demás sólo nos quedaría entonces aceptar el argumento de autoridad que nos dice que debemos confiar en los expertos. Pero esos “expertos”, ¿son expertos de verdad? Y, ¿nos están informando de la forma más objetiva posible o están introduciendo sus propios valores e intereses? Como decía Lakatos, el problema de caracterizar correctamente qué es ciencia y qué no lo es no es un problema sólo de filósofos de salón. Tiene graves implicaciones políticas, económicas, sociales, culturales y medioambientales. Así que más nos vale conseguir que la ciudadanía tenga los mecanismos necesarios para evaluar con cierto grado de acierto como de fiable es cada "experto".



Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

2 comentarios:

  1. Buenos días, Sergio. Soy Laura, una antigua estudiante tuya del instituto IES Diego Velázquez de Torrelodones, por lo menos de hace 10 años. Encontré tu blog de forma casual porque un compañero mío te sigue en Twitter y me comentó sobre tu blog, y qué sorpresa me encontré al ver que eras tú. El año pasado terminé la carrera de Matemáticas en la UCM y este año, estoy realizando el máster de formación del profesorado, actualmente me encuentro realizando las prácticas en un instituto. Recuerdo con mucho cariño tus clases de física y química de 3º de ESO, ya que fue el primer contacto con esta asignatura. Estoy muy agradecida de tus clases con referencias de Big Bang Theory o como en este post, sobre la diferencia entre astronomía y astrología, que parece que los alumnos no sabíamos distinguir, o como el último día nos hablaste de agujeros negros o de las demostraciones en el laboratorio. La verdad que fuiste uno de los mejores de profesores que tuve en Secundaria, ahora que me toca estar desde el otro lado como profe, creo que es justo agradecer el trabajo que realizaste en nuestra clase. Estaré atenta tanto de tu canal de Youtube como del blog, un fuerte abrazo.

    ResponderEliminar
    Respuestas
    1. Gracias Laura por tus palabras. Tengo muy buenos recuerdos de Torrelodones y me alegra saber que contribuí a motivaros. ¡Lo mismo hasta coincidimos de compañeros en algún centro!
      Un abrazo

      Eliminar