10 dic 2017

¿Ha sido nuestro universo diseñado por un creador o es el resultado de un proceso de selección natural?

BwcOmega911a.jpg
Imagine que está usted deambulando por un desierto inhóspito, en el cual, además de arena, lo único que pueden verse son piedras y algo de musgo, y que, de pronto, encuentra en el suelo un bonito reloj. Si usted lo inspecciona en detalle, lo desmonta y estudia su mecanismo interno de ruedas dentadas, se dará cuenta de que se trata de un dispositivo altamente complejo y delicado en el que cada una de sus partes está perfectamente colocada para servir a un propósito colectivo: indicar la hora. En efecto, si alguna de las ruedas de sus engranajes hubiera sido un poco más grande, o un poco más pequeña, con ruedas un poco más anchas o un poco más delgadas, el reloj no funcionaría. Y lo mismo podemos decir de cada muelle. Cada una de las partes del reloj contribuye con tanta precisión al funcionamiento de la máquina completa que no podríamos llamarle a usted irracional si concluye en ese momento que ese reloj ha tenido que ser diseñado por un ser inteligente.

Al igual que el reloj, los seres vivos también están aparentemente dotados de un propósito: un proyecto teleológico que consiste en mantener con vida a ellos mismos y su descendencia. En 1802, el teólogo inglés William Paley, en su obra Teología Natural, usó el ejemplo del reloj para argumentar que la explicación más racional que podemos dar del hecho de que cada una de las partes de cada organismo vivo esté perfectamente colocada para servir a ese proyecto teleológico es que alguien lo haya diseñado así [Paley1802]. Para Paley, darse cuenta de que las diversas partes de un sistema están dispuestas de forma casi perfecta para cooperar en un propósito global es suficiente para poder afirmar que el sistema ha sido diseñado por alguien. Y esto se puede aplicar tanto al reloj como a los seres vivos.

No obstante, es posible encontrar contraejemplos que nos muestran que en estos casos no tiene necesariamente que haber un creador. Uno de ellos es el segundo filtro del modelo de propaganda de los medios de comunicación de masas de Noam Chomsky y Edward S. Herman [Chomsky1995]. Una idea, en principio buena, que se fue implementando a lo largo del siglo XIX fue la incorporación de publicidad en los periódicos para poder ser así vendidos más baratos. Sin embargo, esta innovación tuvo a la larga el efecto secundario de que la mayoría de los periódicos que se escribían para la clase obrera, y que se centraban en aquellas noticias que más les interesaban, quebraron. Las empresas tenían más interés en anunciarse en periódicos con público más adinerado, de tal forma que hasta los mismos obreros acabaron comprando los periódicos dirigidos a los burgueses, que, aunque se centraban en noticias de menor interés para su clase social, se podían comprar a unos precios mucho más bajos. A día de hoy, la práctica totalidad de los medios de comunicación necesitan atraer anunciantes para poder asumir los costes de producción. En esa competición para atraer anunciantes tienen ventaja aquellos medios que tienen público adinerado, ya que son las personas más pudientes las que tienen mayor capacidad para comprar los productos que se anuncian. Por ello, aquellas historias que no van acordes con los intereses de las clases sociales alta y media-alta tienden a ser marginadas en la mayoría de los medios actuales. Ese es el motivo por el que, para Chomsky y Herman, la publicidad es uno de los cinco filtros que determinan lo que es "noticia" y lo que no. Nótese que todas las partes de este sistema están perfectamente acopladas para cumplir la función de un aparato de propaganda a favor de los poderosos. Pero, en este caso, no debemos pensar en una teoría de la conspiración que afirme cosas como que el gobierno tiene agentes secretos que se dedican a comprar a los periodistas para que manipulen o censuren determinadas informaciones. Ni se puede decir que nadie haya diseñado este modelo de propaganda. Esta maquinaria no necesita ni un creador ni nadie que por detrás mueva los hilos. Puede haber, por tanto, varias explicaciones al hecho de que las diversas partes de un sistema cooperen de forma tan eficiente en un proyecto aparentemente teleológico (en el caso concreto de los seres vivos usaremos el término "teleonómico" para seguir la terminología que usaba el bioquímico francés Jacques L. Monod).

No está claro si la hipótesis de la existencia de un "Creador" o "Diseñador" era precisamente la mejor explicación que se tenía a principios del siglo XIX para las maravillosas propiedades teleonómicas de los seres vivos. Pero, de lo que no cabe ninguna duda, es de que actualmente tenemos una muchísimo mejor: la evolución darwiniana. Antes de Darwin la humanidad no tenía las herramientas intelectuales necesarias para darse cuenta de que la propiedad de reproducción invariante de los seres vivos necesariamente precede a su teleonomía. En efecto, la evolución, y el refinamiento continuo de estructuras teleonómicas cada vez más complejas son la consecuencia de perturbaciones aleatorias que ocurren en una estructura que ya poseía la propiedad de reproducirse y que, por tanto, es capaz de preservar los efectos de esas perturbaciones para someterlas al juego de la selección natural.

Pero, como explicó Monod en El azar y la necesidad, catalogar a la teleonomía como una propiedad secundaria de los serres vivos que se deriva de la invariancia reproductiva no es sólo la mejor explicación que tenemos, apoyada por pruebas científicas sólidas, para la complejidad de la vida, sino que es la única que se ha propuesto que es consistente con el Principio de Objetividad de la Naturaleza. Este postulado, que es consustancial a la ciencia misma, consiste en la negación sistemática de que pueda obtenerse verdadero conocimiento sobre la naturaleza si interpretamos los fenómenos en términos de causas finales, propósitos u objetivos a alcanzar [Monod1970]. Las manzanas no caen de los árboles para llegar a su posición natural, que es abajo, sino porque la Tierra ejerce una fuerza sobre ellas hacia abajo. Aunque no tenemos una demostración rigurosa de Principio de Objetividad de la Naturaleza, la historia de la ciencia nos dice que aceptar este postulado es una condición necesaria para que una línea de investigación pueda ser productiva.

El éxito de la ciencia moderna es espectacular. Está claro que los creyentes que desean convencernos de la existencia de Dios van a necesitar un argumento de diseño más sofisticado y que haga referencia a aspectos de la naturaleza que no hayan podido ser explicados por la evolución, para poder así afirmar que esos aspectos son la prueba de la existencia de un creador. Y, de hecho, son tan tenaces que este argumento existe.

Este argumento, elaborado por el filósofo del MIT Roger White, ha sido denominado por su propio autor como el "Argumento del Ajuste Fino a favor de la Existencia de Dios" (en inglés "The Fine-Tuning Argument, FTA, of the Existence of God) y está basado en las siguientes premisas [White2003]:
  1. Si un hecho E que hemos observado está necesitado de explicación y la hipótesis H nos proporciona una explicación satisfactoria del mismo que es mejor que todas las demás alternativas disponibles, entonces E constituye una prueba experimental de H.
  2. Que nuestro universo posee unas leyes de la física y un contenido de materia/energía que son compatibles con el surgimiento de seres vivos es un hecho que está necesitado de explicación.
  3. La hipótesis de que Dios ajustó las constantes físicas para permitir que surja y se desarrolle la vida constituye una explicación satisfactoria de por qué nuestro universo tiene la característica de permitir que haya seres vivos.
  4. No existe ninguna otra hipótesis tan satisfactoria como la anterior que explique por qué nuestro universo tiene la característica de permitir que haya seres vivos.
La conclusión es que el hecho de que nuestro universo permite la existencia de vida es una prueba a favor de que Dios existe.

El motivo por el que a primera vista este argumento parece convincente es porque tiene una fuerte carga emocional. En primer lugar, todos estamos fascinados por la riqueza y complejidad de los seres vivos y esta fascinación aumenta cuanto más en profundidad estudiamos el fenómeno de la vida. En segundo lugar, en el argumento FTA juega un papel importante el que consideremos sorprendente el hecho de que nuestro universo permite que la vida exista. Es verdad que, a día de hoy, el único lugar en el universo en el que sabemos con certeza que hay vida es la Tierra (aunque confiamos en que también la haya en muchos más sitios). Pero si varios de los parámetros y las constantes del Modelo Estándar de la física de partículas y del modelo cosmológico Lambda Cold Dark Matter, que describe la evolución del universo, hubieran sido ligeramente diferentes a los reales, las estrellas no habrían existido, o las supernovas no habrían producido la abundancia de elementos que forman parte de las biomoléculas, o las leyes de la química orgánica serían distintas haciendo inviable la formación y plegamiento de las proteínas o de los ácidos nucleicos. Nuestro universo no habría sido hospitalario para la vida en ningún sitio, el menos para el tipo de seres vivos que conocemos. Si no estuviéramos sorprendidos sobre este hecho, no podríamos aceptar la premisa 2, y, aunque aceptáramos la inferencia por válida, no daríamos al argumento por bueno.

Pero precisamente la crítica más popular que se ha hecho al argumento de White es que el hecho de que nuestro universo sea acogedor para la vida no es nada sorprendente y no necesita explicación, porque nosotros no estaríamos aquí para medir los valores de esas constantes físicas y parámetros a no ser que éstas fueran consistentes con la vida. Esta última afirmación es conocida como Principio Antrópico Fuerte (en inglés Strong Anthropic Principle, SAP). La presencia de observadores nos indica que el universo debe tener aquellas propiedades que permitan a la vida desarrollarse en su interior, al menos en alguna etapa de su historia [Barrow1986].

La aplicación de este principio no se queda en la mera especulación. Se suele decir que su principal éxito ha sido la predicción que hizo Steven Weinberg, usando este principio, del valor aproximado de la densidad de energía oscura del universo. Todavía no sabemos cuál es la naturaleza de la energía oscura, pero su densidad aparece en las ecuaciones de Einstein como una constante cosmológica cuyo efecto es contrario al de la densidad de materia. La materia se atrae gravitatoriamente, provocando que la expansión del universo se vaya frenando. En cambio, la energía oscura lo que provoca es que el universo se expanda cada vez más rápido. Para permitir que se puedan formar las galaxias la constante cosmológica no puede ser demasiado grande, porque entonces el espacio se expandiría demasiado rápido, diluyéndose toda la materia antes de que las galaxias se hayan podido crear por atracción gravitacional en las zonas con mayor densidad. Pero, por otro lado, la constante cosmológica tampoco puede ser demasiado negativa, porque entonces su efecto sería el contrario y el universo habría colapsado en un Big Crunch antes de que las galaxias se formaran [Weinberg1987]. Así fue como Weinberg encontró el rango en el que tenía que estar situado el valor de la densidad de energía oscura. Y cuando posteriormente se midió experimentalmente su valor [Riess1998] [Perlmutter1999], se encontró que la constante cosmológica estaba dentro del intervalo dado por Weinberg.

El problema de la constante cosmológica es un problema de naturalidad. La naturalidad es el requerimiento que damos los físicos teóricos a los parámetros adimensionales de tener mayor probabilidad de ser de orden uno, a no ser que exista un mecanismo físico que les haga ser mucho mayores o mucho menores que uno, o una simetría que les fije a un determinado valor. Hay que señalar que aquí el término "probabilidad" no hace referencia a la probabilidad frecuentista, sino a la probabilidad bayesiana, que no es una probabilidad propiamente dicha, sino el grado de confianza que los científicos tienen en una hipótesis H. Por ejemplo, si asignamos un valor numérico P(H) a ese grado de confianza a priori, después de un nuevo dato experimental E (o un nuevo resultado teórico), el nuevo grado de confianza (a posteriori) será
P(H|E)=P(H)·P(E|H)/P(E)
donde P(E|H) es la probabilidad (esta sí, de verdad) de que el hecho E se dé suponiendo H verdadera, mientras que P(E) no es más que un factor de normalización para hacer que la suma de todos los P(H|E) para todas las hipótesis sea uno. La constante cosmológica no es un parámetro adimensional, pero puede hacerse adimensional si la dividimos entre el cuadrado de la energía de Planck, que es la escala a la que se hacen importantes los efectos cuánticos en los procesos gravitatorios. Aunque no tengamos ninguna teoría que nos prediga el valor de la constante cosmológica, es natural pensar que en una teoría así la constante cosmológica será la solución a cierta ecuación o cierto conjunto de ecuaciones, y, salvo en casos patológicos, siempre que en esas ecuaciones aparezcan coeficientes de orden uno, las soluciones serán de orden uno también. En el caso de la constante cosmológica, el valor medido en unidades de Planck es del orden de magnitud de 10-123, con lo que está claro que tenemos un problema de naturalidad enorme, el peor de toda la física teórica.

Aplicando el análisis bayesiano de Weinberg vemos que, aunque sea alta la probabilidad a priori de que la constante cosmológica en la escala de Planck sea de orden uno, una vez multiplicada por el factor P(E|H) la probabilidad bayesiana a posteriori P(H|E) se va a cero, ya que la probabilidad P(E|H) de que existan las galaxias en un universo con un valor así de la constante cosmológica es prácticamente nula. En cambio, aunque sea muy baja la probabilidad a priori P(H) de que la constante cosmológica tome un valor entre 0 y 10-121 por el requerimiento de naturalidad, la probabilidad a posteriori P(H|E) es mucho más alta porque P(E|H) es prácticamente 1 y, al haber sido excluidas las hipótesis con P(E|H) bajo, el factor de normalización levanta la probabilidad a posteriori de todas las hipótesis supervivientes. El lector interesado en conocer más sobre las inferencias bayesianas puede consultar este artículo.

Sin embargo, al no ser las probabilidades bayesianas verdaderas probabilidades, el análisis del anterior párrafo no es un análisis riguroso ni está fuera de controversia. Las cosas quedarían más claras si hubiera toda una familia de posibilidades para el universo, de tal forma que podamos definir las probabilidades simplemente como las frecuencias relativas en ese colectivo de posibles universos. Sorprendentemente, esta es precisamente la situación con la que nos hemos encontrado los físicos teóricos en las últimas décadas. Tanto el modelo Lambda Cold Dark Matter de evolución del universo, testado experimentalmente con éxito, como el único marco de referencia teórico que tenemos para estudiar la gravedad cuántica, la teoría de cuerdas, inevitablemente conducen a un multiverso de burbujas desconectadas causalmente, cada una de las cuales está gobernada por diferentes leyes de la física. Simplificando mucho, podemos decir que las partículas que constituyen el universo no son más que excitaciones cuánticas de determinados campos que oscilan en torno a un determinado mínimo relativo de energía potencial. La energía de ese mínimo relativo, la energía del vacío, es la energía oscura, mientras que lo estrecho que sea ese valle nos da una idea de la energía que cuesta crear a las partículas, es decir, de su masa.
La mecánica cuántica permite que haya transiciones por efecto túnel entre los distintos valles asociados a los distintos mínimos relativos. Un universo con una energía de vacío alta estaría sufriendo una expansión exponencial y, en poco tiempo, se haría tan grande que la probabilidad de que alguno de sus puntos efectuara una transición por efecto túnel hacia otro valle sería muy alta. Se formaría así una burbuja que se expandiría también exponencialmente por culpa de su energía de vacío (que sería un valor distinto de la constante cosmológica con la que empezamos) dando lugar a todo un nuevo universo hijo con partículas con distintas masas y distintas interacciones (al tratarse de un valle con anchura distinta). Algunos puntos de este universo hijo experimentarían otras transiciones hacia otros valles, formándose así un número ingente de universos con características distintas.

La expansión que provoca la constante cosmológica puede entenderse como una propiedad de reproducción invariante del mismo espacio. A su vez, la existencia de las transiciones que dan lugar al multiverso nos proporciona un mecanismo para producir variación, una especie de mutaciones genéticas cósmicas.


Una vez tenemos este colectivo de universos diversos, es posible ir un paso más allá y preguntarse por la probabilidad P(E|H) de que las distintas leyes de la física de cada burbuja lleven a que aparezcan observadores en ella que se pregunten por qué esas leyes son como son. De esta manera, cuestiones como el extraño valor medido para la constante cosmológica pueden entenderse potencialmente como producto de la selección de observadores de entre todas las burbujas del multiverso, una especie de selección natural darwiniana cósmica.

Esta analogía con la evolución biológica ha llevado a Weinberg a manifestar su convicción de que el Principio Antrópico Fuerte es el argumento apropiado para los cosmólogos comprometidos con el ateísmo. Para Weinberg, aceptar este principio constituye un punto de inflexión en la ciencia moderna similar al que se produjo con la revolución darwiniana, ya que, al aplicarlo al multiverso, nos proporciona una "explicación compatible con el Principio de Objetividad al hecho de que las contantes de la naturaleza sean hospitalarias para la vida sin que hayan sido ajustadas por un creador benevolente" [Weinberg2007]. O, por lo menos, en el peor de las casos, elimina la necesidad de explicar el ajuste fino de nuestro universo. Por tanto, o bien la premisa 2 del argumento de White a favor de la existencia de Dios es falsa, o bien es falsa la premisa 4.

El contraargumento de White a la objeción planteada por el Principio Antrópico Fuerte queda sintetizado en estas palabras:
Se encuentra usted delante de un pelotón de fusilamiento formado por 15 soldados apuntándole con sus rifles. Para su sorpresa, en el momento en el que se producen los disparos todas las balas le pasan rozando, quedando usted ileso. ¿Por qué han errado todos los soldados? ¿Se ha tratado solamente de un accidente? Está claro que un suceso tan extraño está necesitado de explicación. No ayuda decir "Si alguna bala hubiera dado en el blanco yo no estaría aquí para preguntarme por el sorprendente hecho de que todos los soldados erraron". Aunque es correcto afirmar una proposición así, eso no ayuda a resolver el misterio de por qué ninguna bala le ha alcanzado. [White2013]
El Tres de Mayo, by Francisco de Goya, from Prado thin black margin.jpg
La crítica de White al Principio Antrópico Fuerte no es nueva. Llevamos ya más de una década escuchando críticas similares por parte de otros reputados físicos teóricos como, por ejemplo, David Gross, que nos lleva alertando de la peligrosidad de los argumentos antrópicos en física. Para Gross, decir que la constante cosmológica toma ese valor tan extraño porque, si no fuera así, no estaríamos aquí, es no sólo poner objeciones al argumento de White, sino también negar la física misma, ya que implica asumir que no hay una explicación microscópica, cuantitativa y más profunda [Gross2007]. Invocar al Principio Antrópico Fuerte es una excusa para no buscar los mecanismos subyacentes que nos permitan predecir y analizar la naturaleza a un nivel más fundamental [Motl2005]. De hecho, en casi cualquier momento de la historia de la ciencia el progreso de la misma se podría haber interrumpido si los científicos hubieran hecho caso a un defensor del Principio Antrópico Fuerte y hubieran considerado que los fenómenos físicos que quedaban por entender son consecuencia de procesos dinámicos sobre un gran número de posibles universos cuya comprensión no está a nuestro alcance, y que la única razón por la que nuestro universo se comporta como lo hace es porque, en caso contrario, no existiríamos.

El siguiente ejemplo ilustra bien esta idea. El astrónomo alemán Johannes Kepler pasó a la historia sobre todo por haber encontrado, a partir fundamentalmente de los datos experimentales obtenidos por su antecesor, Tycho Brahe, las leyes del movimiento planetario. Obsesionado con encontrar patrones en las proporciones de estos movimiento, Kepler descubrió que cada planeta describe una órbita elíptica alrededor del Sol, con el Sol en uno de sus focos, que el área barrida por unidad de tiempo se mantiene constante y que los cuadrados de los periodos T son proporcionales a los cubos de las distancias r al Sol. Gracias a estas leyes, Newton encontró posteriormente que la fuerza de atracción gravitatoria debe ser inversamente proporcional a r2, ya que, si la potencia de r en la ley de gravitación universal en vez de 2 hubiera sido otro número n, los cuadrados de los periodos no habrían sido proporcionales a r3, sino a rn+1. Por otro lado, hoy en día sabemos que el área barrida por un planeta por unidad de tiempo se puede escribir como el módulo del momento angular del planeta respecto del Sol, dividido entre 2 y entre la masa del planeta. La ley de las áreas de Kepler no es más que la ley de conservación del momento angular, que es una consecuencia de que la fuerza que ejerce el Sol sobre los planetas es atractiva. Kepler nunca lo supo, pero detrás de las regularidades que enunció se encuentran las leyes de la física de Newton más profundas. Si le hubiéramos dicho a Kepler que el universo está poblado de cientos de millones de estrellas con varios planetas a su alrededor a distancias aleatorias, y que la Tierra se encuentra a la distancia del Sol a la que está porque, si hubiera estado un poco más cerca o un poco más lejos no habría agua líquida y, por tanto, no habría formas de vida para preguntarse por esas distancias, quizás no habría tenido la motivación para dedicarse a la ardua tarea de encontrar regularidades en esa gran cantidad de datos astronómicos de los que disponía.

Los científicos hemos sido capaces repetidas veces en el pasado de encontrar mecanismos físicos sutiles y profundos que explican los valores de las constantes físicas, mecanismos cuya utilización en el razonamiento científico nos han llevado a predicciones espectaculares. No hay ningún motivo para creer que las soluciones a los problemas de naturalidad que tenemos hoy en día vayan a ser diferentes [Motl2004].

Además, no es del todo correcto decir que la estimación que hizo Weinberg del orden de magnitud de la constante cosmológica sea un éxito del Principio Antrópico Fuerte. En realidad, lo único que hizo Weinberg fue darse cuenta de que la hipótesis de que la constante cosmológica esté fuera del rango que él dio queda automáticamente falsada por el hecho experimental de que existen las estrellas. Esta forma de proceder es correcta y no es más que aplicar el método científico ordinario. En lo que se equivocan los defensores del Principio Antrópico Fuerte es en postular que la forma en la que procedió Weinberg sea la única para falsar o acotar hipótesis. Si aceptáramos esto, intentar explicar el valor de los parámetros del Modelo Estándar de las partículas elementales o de los del modelo cosmológico Lambda Cold Dark Matter tendría tan poco sentido como preguntarnos por qué la altura del Everest toma ese valor tan particular o por qué el Éter no causa viento en el experimento de Michelson. La aplicación del Principio Antrópico Fuerte es un paradigma asesino, en el sentido de que ahoga cualquier tipo de investigación interesante [Montañez2008]. Afortunadamente, tenemos muchas formas de ir acotando y descartando hipótesis más allá de la simple observación de que existimos.

Y lo mismo podemos decir de la hipótesis de un creador inteligente, es también una hipótesis que lo único que hace es evitar tener que buscar una explicación profunda a los fenómenos físicos. No importa si esta forma de escurrir el bulto recurre al diseño de un dios benevolente o a propiedades fijadas mediante una selección llevada a cabo en un amplio colectivo de universos. Las consecuencias nefastas para la investigación son similares en ambos casos. Sobre el argumento de White, además, puede decirse que constituye una interpretación incorrecta del Principio Antrópico Fuerte al suponer que éste conlleva necesariamente una explicación teleológica, al tratar a la vida como el propósito para el que está hecho el universo, violando el Principio de Objetividad. Esto es así porque White está confundiendo una inferencia categórica con una inferencia condicional. Si nosotros hemos evolucionado en este universo, eso significa que este universo debe haber sido hospitalario para nuestra evolución, pero es presuntuoso creer que la presencia de condiciones adecuadas para la vida en este universo es un hecho que necesita de una explicación del tipo de la premisa 3, en la que el universo ha sido diseñado con esa evolución en mente. Dado que existimos, de ahí se sigue que nuestra existencia debe ser posible, pero no se sigue de ahí que debamos categóricamente haber existido [Peacock2014]. Si un avión se estrella y usted es el único superviviente, el mecanismo por el cual su supervivencia ha sido posible está necesitado de explicación (por ejemplo, el motivo podría ser que usted estaba sentado en la última fila, o que por la forma en que se produjo la colisión todo se destruyó menos justamente su asiento), pero no necesitamos explicar por qué específicamente es usted el único superviviente. Aquí sí es correcto decir que si otro pasajero hubiese sido el único superviviente, usted no estaría vivo para hacerse esa pregunta. Pero, de nuevo, es un error decir que no sea necesaria una investigación para ver qué ha ocurrido. Este es el significado real de la premisa 2. Debemos buscar una explicación a las constantes físicas, pero el tipo de explicación que necesitamos es muy distinta de la que nos ofrece la premisa 3. Necesitamos una explicación científica, una que no esté basada en causas finales.

A la relación entre ciencia y religión le pasa algo parecido a lo que le ocurre a la relación ciencia-democracia: lo que se divulga es que hay un conflicto. Así, lo mismo que se oye mucho por boca de los pseudoescépticos más radicales la falsedad de que la ciencia nos dicta racionalmente qué decisiones políticas tomar y que, por tanto, debemos cambiar nuestra democracia por una tecnocracia, también se oye la barbaridad de que alguien que es creyente no puede ser un buen investigador o divulgador científico porque no es una persona racional. Conozco buenos investigadores de todas las religiones, además de muchos ateos y agnósticos. No está bien ignorar ni la realidad científica actual ni la historia de la ciencia. El mismo Kepler era un hombre profundamente religioso y la motivación principal para llevar a cabo su investigación era su creencia en que Dios nos estaba transmitiendo un mensaje a través de los astros. Pero también es una barbaridad introducir un concepto tan mal definido como un Dios creador en las hipótesis y pretender que se está haciendo un análisis científico. Las creencias de cada uno forman parte del campo de los sentimientos y deben ser respetadas, pero el terreno de la ciencia es otro bien distinto, uno en el que se cumple el Principio de Objetividad. Igual de absurdo es también pretender explicar que el universo es compatible con la vida diciendo que en realidad vivimos en una simulación informática tipo Matrix o porque todo nuestro universo observable forma parte de un experimento llevado a cabo por extraterrestres. La navaja de Ockham aquí es implacable.

Por otro lado, ni siquiera estamos seguros de que la vida dependa tan delicadamente de los parámetros físicos para que podamos hablar de ajuste fino. Precisamente, uno de los problemas que tenemos hoy a la hora de establecer los protocolos de búsqueda de vida extraterrestre es encontrar una definición de vida que no sea chovinista, es decir, una definición que sea independiente de las condiciones concretas de la Tierra. De acuerdo con la definición que da la NASA, es vida toda aquella estructura con la propiedad de reproducción invariante y que está sometida a mutaciones que, por selección natural, da lugar a evolución [Joyce1994]. Esto hace que podamos considerar como vida estructuras que no estén basadas en uniones moleculares de los elementos químicos de la tabla periódica, sino en partículas elementales muy distintas de los electrones y los bariones y con interacciones diferentes a las del modelo estándar. Estructuras con las propiedades de la definición de la NASA podrían formarse de forma generalizada en universos con leyes de la física distintas como formas de disipación de gradientes obedeciendo a las leyes de la termodinámica del no equilibro, leyes que dependen poco de cómo sea la física microscópica concreta que haya en esa burbuja. No se puede hablar tan a la ligera de las condiciones que permiten que pueda desarrollarse la vida porque se trata de un asunto que está más allá de nuestro conocimiento actual.

Además, si hacemos la inferencia bayesiana con cuidado nos damos cuenta de que el argumento de White también hace aguas ya desde la primera premisa. Incluso admitiendo que la hipótesis H de un creador benevolente implica que el universo tiene que ser hospitalario para la vida, lo que se sigue de ahí es que P(E|H)=1, pero no que P(H|E) sea alta. Dado que E es un hecho bien establecido desde que la humanidad tiene uso de razón, las únicas hipótesis en juego que ha habido siempre son aquellas que son compatibles con E, es decir, aquellas con P(E|H)=1. Esto hace que el factor de normalización, que es igual al sumatorio de todos los P(H)·P(E|H) y que puede interpretarse como la probabilidad de que se dé E, sea igual a 1. Por tanto, a lo que se llega es a que P(H|E)=P(H), es decir, que el grado de confianza que tenemos en la hipótesis del diseño inteligente a posteriori es igual al que teníamos a priori. Si usted es creyente, es claro que asignó un P(H) alto y, por tanto, obtendrá un P(H|E) alto. Pero, si, además de creyente, es usted una persona racional, admitirá que el motivo por el que P(H|E) es alto no es porque E suponga un apoyo experimental a su hipótesis, sino porque ya partió de ese dogma, ya que la probabilidad de H después de aplicar E no ha crecido con respecto a la de partida, sino que se mantiene exactamente igual. Un agnóstico que asigne a P(H) un valor pequeño, obtendrá como P(H|E) un valor igual de pequeño. Tenga las creencias que usted tenga, estará, por tanto, de acuerdo conmigo en que E no constituye una prueba experimental de H, con lo que la premisa 1 del argumento de White es falsa. La inferencia bayesiana, que es la mejor teoría de la confirmación que tenemos, nos dice que las pruebas experimentales de una hipótesis son las que hacen que el grado de confianza en ella a posteriori sea mayor que el que había a priori, no que se queden igual. Perpetuar un dogma preestablecido no es confirmar ni dar apoyo experimental a nada.

De todo el análisis precedente se sigue que el argumento del Ajuste Fino a Favor de la Existencia de Dios es una falacia, consecuencia de la tenacidad de algunos de llevar ilegítimamente, por n-ésima vez, sus respetables creencias y sentimientos al terreno de la ciencia y la filosofía. Hay que estar alerta, porque estas invasiones en múltiples ocasiones, aunque no parece ser el caso concreto de Roger White, no son nada inocentes. Valga como ejemplo la vergüenza nacional que supone que en el Boletín Oficial del Estado esté publicada una versión cutre, intelectualmente todavía más pobre, de esta falacia:


Estas capturas están sacadas del currículo de Religión Católica, asignatura impartida en centros públicos por profesores cuyo sueldo depende del Estado pero que son elegidos a dedo por la Conferencia Episcopal, en vez de seleccionados por un duro concurso-oposición como ocurre con el resto del profesorado. Desde que entró en vigor la LOMCE, además, esta asignatura cuenta para la media.

Siempre que se dan fenómenos o situaciones en la naturaleza que no somos capaces de explicar hay quien propone argumentos como el del diseño inteligente, bien para justificar racionalmente una creencia, bien para ahorrarse el esfuerzo intelectual de tener que buscar una explicación cuantitativa más precisa y profunda a estos hechos. En este sentido, falacias como la de White no son nuevas. Lo que sí es nuevo es que esta vez los defensores del Principio Antrópico Fuerte se han presentado como los salvadores de la ciencia moderna, pretendiendo hacernos ver que sus ideas son antagónicas a las de los creacionistas porque ellos sí respetan el Principio de Objetividad de la Naturaleza. Sin embargo, estos últimos caen en un error similar al de los defensores del diseño inteligente al justificar el punto de vista según el cual no debemos buscar respuestas más detalladas a las preguntas para las que todavía no tenemos respuesta. Es posible que muchas de la constantes físicas que hoy consideramos fundamentales resulten ser en realidad tan accidentales como el tamaño del pico de montaña más alto que hay en la Comunidad de Madrid. Siempre estamos a merced de cometer el error de que, lo que consideramos hoy general, mañana averigüemos que era algo que sólo ocurría en nuestro pueblo. Pero eso no justifica que tengamos que buscar respuestas tan genéricas como las que da el Principio Antrópico a todas las cuestiones. Las respuestas antrópicas adolecen del mismo defecto que la del diseño inteligente: están tan fijadas a priori que ningún nuevo conocimiento podría probar que son falsas.

Además, es bastante pretencioso afirmar que la forma de razonar antrópica constituye un punto de inflexión en la ciencia similar a la revolución darwiniana, ya que, de momento, ni el modelo cosmológico actual ni lo que se ha hecho hasta ahora en teoría de cuerdas nos proporcionan mecanismos de transición entre vacíos tan bien definidos como las mutaciones y la selección natural de Darwin. Ni siquiera sabemos cuáles son esos vacíos, con lo que las probabilidades con las que trabajan los que aplican el Principio Antrópico Fuerte siguen siendo bayesianas en vez de frecuentistas. Esto es así porque todavía de la teoría de cuerdas sólo conocemos algunas esquinas perturbativas y algunos fenómenos no perturbativos que podemos controlar bien sólo en situaciones supersimétricas. Estas esquinas perturbativas son las supercuerdas tipo I, tipo IIA, tipo IIB y heteróticas E8xE8 y SO(32), que viven en 10 dimensiones espaciotemporales. Se conjetura que hay otra descripción, la teoría M, que no es una teoría de cuerdas propiamente dicha y que es 11-dimensional. Y también está la teoría F, que es 12-dimensional. Todas éstas están relacionadas por una web de dualidades. Dado que todos los fenómenos que observamos en el universo ocurren en 4 dimensiones espacio-temporales, es de suponer que las dimensiones sobrantes son compactas y están plegadas en tamaños tan pequeños que sólo podríamos detectarlas a energías muy altas. La teoría efectiva 4-dimenional que surge a energías que son accesibles a nuestros experimentos depende fuertemente de la geometría y los flujos que haya en esas dimensiones extra. Estimaciones recientes [Taylor2015] nos dicen que el número de posibles compactificaciones sólo de la teoría F es de al menos 10272000, y posiblemente sean infinitas, aunque numerables, aunque todavía no sabemos si todas esas compactificaciones son distintas o algunas de ellas constituyen descripciones duales de la misma física. Este aparentemente enorme conjunto de posibles vacíos de la teoría de cuerdas se conoce como landscape, y es lo que nos da el conjunto de posibles burbujas del multiverso. Sin embargo, es un error bastante común pensar que todas las posibles leyes de la física y todos los posibles valores de las constantes físicas están contenidos en el landscape. Al conjunto de las teorías efectivas 4-dimensionales que no admiten una extensión completa a altas energías en teoría de cuerdas se le conoce como swampland. Se trata de teorías que, pensamos, serían inconsistentes al conectarlas a altas energías con la gravedad cuántica, es decir, teorías que están en nuestra imaginación pero que no podrían existir en el multiverso. Y, de hecho, tenemos indicaciones de que los vacíos metaestables con constante cosmológica positiva podrían pertenecer todos al swampland en vez de al landscape [Brennan2017]. Esto nos dejaría como única posibilidad los modelos de tipo quintaesencia, en los que, en vez de en un valle como los de la figura que vimos más arriba, lo que tenemos es a nuestro universo deslizando lentamente por una ladera, lo que nos daría una constante cosmológica que no es contante en el tiempo. Todos estos asuntos son objeto de intensa investigación en la actualidad y no estamos en situación de sacar conclusiones tan a la ligera.

Lo que sí está claro es que, hasta ahora, a medida que hemos ido incorporando nuevos principios fundamentales a la física fundamental, ésta se ha ido volviendo cada vez más restrictiva, es decir, cada vez se ha ido reduciendo más el número de universos posibles. Por ejemplo, los postulados de la relatividad especial no permiten interacciones más rápidas que la luz en el vacío o que exista un sistema inercial en el que las leyes de la física sean distintas, y, además, de esto se siguen otras restricciones importantes, como por ejemplo que el tiempo que transcurre entre dos sucesos tiene siempre que ser menor en el sistema de referencia propio que en todos los demás o que las partículas sin masa están obligadas a viajar a la velocidad de la luz en el vacío con respecto a todos los sistemas de referencia. A su vez, los principios fundamentales de la mecánica cuántica imponen restricciones adicionales como, por ejemplo, que todo electrón con una energía bien definida, ya sea libre o ligado a un átomo, no puede tener una posición bien definida, o que el estado de menor energía que un cuerpo que vibra no puede ser permanecer en el punto de equilibrio. Pero, si, además, juntamos los principios fundamentales de la mecánica cuántica con los principios fundamentales de la relatividad, surgen nuevas restricciones inesperadas como, por ejemplo, la relación espín-estadística o el hecho de que toda partícula tiene que tener su correspondiente antipartícula con exactamente la misma masa y cargas opuestas (salvo si no tiene cargas, en cuyo caso ella puede ser su propia antipartícula). Todo indica, por tanto, que una vez incluyamos en este juego también los principios fundamentales de la interacción gravitatoria de forma consistente con los anteriores, como hace la teoría de cuerdas, aparecerán nuevas restricciones que dejarán pocas posibilidades (posiblemente sólo una) de cómo tiene que ser el universo para respetar estos principios. Los criterios que nos estamos encontrando para distinguir si una teoría cuántica de campos efectiva a baja energía pertenece al landscape o al swampland ya nos están dejando ver algunas de estas restricciones. Además de la imposibilidad ya mencionada de vacíos metaestables con constante cosmológica positiva, también parece imposible que haya simetrías globales exactas o que haya interacciones gauge más débiles que la gravedad, entre otros muchos criterios [Brennan2017].

En conclusión, no es correcto decir que tenemos pruebas que nos indican, ni que el universo ha sido diseñado por un creador, ni que ha sido seleccionado a partir de un número enorme de universos. De lo que sí tenemos pruebas es de que buscar, en cambio, explicaciones cuantitativas profundas a partir de primeros principios a las grandes preguntas usando la metodología científica es lo que hace que de verdad ampliemos nuestro conocimiento.

Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

Referencias:

  • [Barrow1986] Barrow, J. D. and Tipler, F. J. The Anthropic Cosmological Principle, Oxford: Oxford University Press.
  • [Brennan2017] Brennan, T. Daniel; Carta, Federico; Vafa, Cumrun. 'The String Landscape, the Swampland, and the Missing Corner'. eprint arXiv:1711.00864
  • [Chomsky1995] Chomsky, N. y Herman, E.: Los guardianes de la libertad. Propaganda, desinformación y consenso en los medios de comunicación de masas, Barcelona, Grijalbo, 1995.
  • [Gross2007] Gross, D. "Perspectives>", in Strings 07 Madrid <http://www.ift.uam.es/strings07/040_scientific07_contents/videos/gross.mp4>.
  • [Joyce1994] Joyce G.F. Deamer D.W. Fleischaker G. Origins of Life: The Central Concepts. Jones and Bartlett; Boston: 1994. Foreword.
  • [Monod1970] Monod, Jaques. Chance and Necessity: An Essay on the Natural Philosophy of Modern Biology. New York: Alfred A. Knopf.
  • [Montañez2008] Montañez, Sergio. "Dead paradigms and killer paradigms" in Isagogé 5. https://arxiv.org/abs/0908.2315
  • [Motl2004] Motl, Lubos. "The anthropic lack of principles" in The Reference Frame https://motls.blogspot.com.es/2004/10/anthropic-lack-of-principles.html?m=1
  • [Motl2005] Motl, Lubos. "Anthropic Weinberg" in The Reference Frame http://motls.blogspot.com.es/2005/11/anthropic-weinberg.html
  • [Paley1802 ] Paley, William. Natural Theology, Or, Evidences of the Existence and Attributes of the Deity. Collected from the Appearances of Nature. Philadelphia: John Morgan
  • [Peacock2014] Peacock, John and Richmond, Alasdair. "The Anthropic Principle and Multiverse Cosmology" in Philosophy and the Sciences for Everyone. Edited by Michela Massimi.
  • [Perlmutter1999] Perlmutter, S.; et al. "Measurements of Omega and Lambda from 42 High-Redshift Supernovae". The Astrophysical Journal. 517 (2): 565–586. Bibcode:1999ApJ...517..565P. arXiv:astro-ph/9812133 Freely accessible. doi:10.1086/307221.
  • [Riess1998] Riess, A.; et al. "Observational Evidence from Supernovae for an Accelerating Universe and a Cosmological Constant". The Astronomical Journal. 116 (3): 1009–1038. Bibcode:1998AJ....116.1009R. arXiv:astro-ph/9805201 Freely accessible. doi:10.1086/300499.
  • [Taylor2015] W. Taylor and Y.-N. Wang, The F-theory geometry with most flux vacua, JHEP 12 (2015) 164, [1511.03209].
  • [Weingerg1987] Weinberg, S. "Anthropic Bound on the Cosmological Constant". Phys. Rev. Lett. 59 (22): 2607–2610. Bibcode:1987PhRvL..59.2607W. PMID 10035596. doi:10.1103/PhysRevLett.59.2607.
  • [Weinberg2007] Weinberg, S. "Living in the multiverse". In B. Carr (ed). Universe or multiverse?. Cambridge University Press. ISBN 0-521-84841-5. arXiv:hep-th/0511037
  • [White2003] White, Roger. ‘Fine-Tuning and Multiple Universes’. God and Design: The Teleological Argument and Modern Science. Ed. Neil A. Manson. New York, NY: Routledge.
  • [White2013] White, Roger. "The argument for Cosmological Fine-Tuning". https://d37djvu3ytnwxt.cloudfront.net/c4x/MITx/24.00_1x/asset/WhiteFineTuning.pdf

31 oct 2017

"El discreto encanto del color". Conferencia. Prof. Margarita García Pérez

  Miércoles 8 de Noviembre 2017
  18:30
  Residencia de Estudiantes del CSIC
c/ Pinar 21, 28006 Madrid 
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título 1El discreto encanto del color. 
 Ponente   Prof. Margarita García Pérez 
 Institución IFT-UAM/CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/residencia2017/Programa

La fuerza de color media las interacciones entre quarks y gluones, las partículas que componen los protones y neutrones del núcleo atómico. En esta charla nos adentramos en un mundo discretizado para averiguar cuánto pesa el color y dar masa a los objetos que forman nuestro mundo cotidiano.

"Los ladrillos del Univeso y su lado oscuro". Conferencia. Prof. Carlos Muñoz

  Martes 7 de Noviembre 2017
  20:00
  Residencia de Estudiantes del CSIC
c/ Pinar 21, 28006 Madrid 
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título Los ladrillos del Univeso y su lado oscuro.
 Ponente   Prof. Carlos Muñoz
 Institución IFT-UAM/CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/residencia2017/Programa

Daremos un paseo por el mundo de las partículas elementales. Descubriremos como los quarks, el electrón y los neutrinos son fundamentales para nuestra existencia. Hablaremos de por qué el bosón de Higgs es tan especial. De por qué el gravitón se nos resiste y de cómo la teoría de cuerdas puede quizás unificarlo todo. Sin embargo, al final del viaje, tendremos que reconocer que ninguna de esas partículas puede ser la materia oscura (ni la energía oscura) que constituye casi todo el Universo. Se necesitan nuevas partículas todavía desconocidas, sobre las que elucubraremos, así como de los experimentos que permitirán detectarlas en el LHC, en telescopios y en satélites.

"El fin del espacio-tiempo". Vídeo de la conferencia. Prof. José L. Fernández Barbón

   Martes 7 de Noviembre 2017
   18:30
   Residencia de Estudiantes del CSIC
c/ Pinar 21, 28006 Madrid 
 Organiza  Instituto de Física Teórica UAM-CSIC
 Tipo de evento  Conferencia de divulgación
 Título  El fin del espacio-tiempo.
 Ponente   Prof. José L. Fernández Barbón
 Institución  IFT-UAM/CSIC
 ¿Necesario confirmación?  No
 Más información  https://workshops.ift.uam-csic.es/residencia2017/Programa

La física se fundamenta en dos conceptos con un siglo de antigüedad: la mezcla entre espacio y tiempo propuesta por Einstein y la noción  de partícula cuántica. En esta charla explico algunas limitaciones de esta concepción dual tal como se vislumbran a principios del siglo XXI. Estos límites se hacen palpables en el estudio de los agujeros negros y la existencia de la energía oscura del universo. 

31 ago 2017

Los resultados experimentales no determinan por completo el conocimiento científico

En el artículo anterior hemos visto cómo, a partir del falsacionismo sofisticado, es posible, si vamos más allá de la propuesta de Popper asignando grados de confianza a las distintas hipótesis, derivar las reglas de la inferencia bayesiana. Las hipótesis y teorías científicas deben ser falsables, deben poderse someter a pruebas experimentales y la introducción de los nuevos resultados experimentales en las reglas de la inferencia bayesiana nos dice que la forma en que avanza la ciencia es mediante la confirmación de conjeturas audaces y la falsación de las conjeturas prudentes. En este artículo nos planteamos la siguiente pregunta: ¿nos proporciona el criterio falsacionista una guía realista sobre cómo distinguir una teoría científica de otra que no lo es?

27 ago 2017

Del falsacionismo a las inferencias bayesianas

En el artículo anterior hemos visto que las inferencias inductivas no son inferencias válidas. Aunque los enunciados particulares que constituyen las premisas
E="Este cuervo, y éste, y este otro, son negros"
sean verdaderas, la conclusión
H="Todos los cuervos son negros"
es un enunciado general que podría ser falso. Podría existir un cuervo no negro que no haya sido todavía observado. La justificación del esquema de inferencia inductiva es circular: la inducción nos ha dado buenos resultados en el pasado, luego, por inducción, seguirá dándonos buenos resultados en el futuro. Vimos también que, en la práctica, este problema es poco importante. Después de todo, el hecho E sí que debería hacernos tener más confianza en que H es cierta, aunque nunca estemos totalmente seguros.

Sin embargo, al preguntarnos en qué casos un resultado experimental particular E confirma a una hipótesis general H, es decir, en qué casos al obtener E podemos estar un poco más seguros de que H es cierta, hemos visto que no basta con que H implique E. Por ejemplo, al estudiar la paradoja de los cuervos vimos que, si E consiste en que he observado una cosa no negra y he visto que no es cuervo, eso no nos hace estar más seguros de que es cierta la hipótesis H="Todas las cosas no negras son no cuervos". En cambio, si E="He visto un cuervo negro", entonces sí que E nos confirma H, porque E hace que estemos ahora un poquito más seguros de que todos los cuervos son negros. La paradoja de los cuervos nos indica que no es posible establecer unas reglas generales y objetivas (que no dependan de las expectativas previas ni del contexto) que nos indiquen cuando E confirma H, lo que nos lleva a un relativismo muy incómodo.

Además, incluso en el caso de que E sí  confirme a H, existe el problema adicional de encontrar el criterio que nos diga en qué casos podemos estar muy seguros de que H es cierta, frente a los casos en los que sólo debemos estar un poco más seguros. 

Karl Popper.jpg
Karl Popper

Estos problemas de la inducción llevaron al filósofo austriaco Karl Popper a proponer la falsación, en vez de la inducción, como el tipo de razonamiento en el que está basada la ciencia. Popper se dio cuenta de que, aunque el resultado experimental singular "Hay x cuervos negros" no se puede usar para afirmar con seguridad el enunciado general "Todos los cuervos son negros", la observación singular de que hay un cuervo que no es negro sí sirve para demostrar rigurosamente que el enunciado "Todos los cuervos son negros" es falsa. La concepción falsacionista de la ciencia, en su versión más sofisticada, está basada en las siguientes premisas [Popper1959]:
  • Popper adapta el postulado reduccionista del positivismo, según el cual sólo tienen sentido las afirmaciones que se puedan comprobar directamente a partir de los "hechos" o que pueden deducirse lógicamente a partir de éstos, modificándolo por el postulado falsacionista: "Las leyes y teorías científicas han de ser falsables, es decir, ha de existir algún hecho experimental posible que sea incompatible con ellas". En otras palabras, según Popper para que un enunciado sea científico debe existir algún hipotético resultado experimental que lo refute. Así, por ejemplo, la ley de conservación de la cantidad de movimiento es un enunciado científico, porque en un experimento de colisiones podría obtenerse como resultado que la cantidad de movimiento total final es distinta de la inicial. Si pasara esto alguna vez, tendríamos claro que tenemos que descartar la ley de conservación de la cantidad de movimiento (¿a que sí Pauli?).
  • Si, tras numerosos y elaborados intentos, no hemos conseguido refutar una teoría concreta, entonces tenemos que aceptarla, pero siempre de forma provisional. De esta forma, las teorías no se derivan de las experiencia, sino que se crean por el intelecto humano para después ser sometidas a prueba rigurosa e implacablemente por la observación y la experimentación. Éstas, la observación y la experimentación, son guiadas por la teoría y la presuponen.
  • Las teorías que no superen las pruebas experimentales han de ser eliminadas y reemplazadas por otras que a su vez se pondrán a prueba. Pero no vale cualquier hipótesis o teoría, sino que éstas deben ser más falsables que aquella en cuyo lugar se ofrecen. Una teoría recién propuesta ha de ser considerada como digna de atención si es más falsable que su rival y, en especial, si predice un nuevo tipo de fenómenos que su rival no menciona. Esto excluye modificaciones "ad hoc'' como, por ejemplo, la que propusieron los aristotélicos cuando, ante la afirmación de Galileo de que había visto cráteres en la Luna, postularon que la Luna seguía siendo una esfera perfecta porque estaba rodeada de un material transparente perfectamente esférico. Esta afirmación no era falsable porque en aquella época no era posible viajar a la Luna para comprobarla.
De esta forma, según Popper, la ciencia progresa en el sentido de que sólo sobreviven las teorías más aptas. Aunque no se puede decir que una teoría superviviente es rigurosamente verdadera, sí que se puede decir que es la mejor disponible.

En este artículo vamos a analizar el falsacionismo desde una perspectiva más amplia de la que propuso Popper. Esto nos llevará a una concepción del razonamiento científico más sofisticada que el inductivismo y el falsacionismo denominada "bayesianismo".

23 ago 2017

Los problemas de la inducción

En un artículo anterior hemos señalado la necesidad, no sólo de mejorar los conocimientos científicos de los ciudadanos en una sociedad democrática, sino, sobre todo, de hacerlo yendo más allá de la ingenua concepción empirista-positivista de la ciencia. Al analizar, de acuerdo con A.F. Chalmers [Chalmers1999], esta doctrina, hemos dado argumentos que nos han llevado a rechazar completamente el enunciado:
  • B) Los "hechos'' en los que se basa la Ciencia son anteriores a la teoría e independientes de ella.
ya que es la teoría previa la que te permite diseñar el experimento y decidir qué magnitudes medir de entre las infinitas posibilidades que tenemos de manipular la naturaleza. También hemos matizado enormemente los enunciados:
  • (A) Los "hechos'' en los que se basa la Ciencia se dan directamente a observadores cuidadosos y desprejuiciados por medio de los sentidos.
  • (C) Estos "hechos'' constituyen un fundamento firme y confiable para el conocimiento científico.
ya que vimos que no podemos descartar la posibilidad de que los "hechos" observados no sean tan seguros como creemos, y por eso vamos a seguir denotándolos entre comillas. Aunque estas conclusiones nos obligan a estar alerta, no nos preocupan demasiado, ya que las condiciones en las que se llevan a cabo los experimentos científicos y su discusión posterior por parte de la comunidad científica hacen que normalmente estemos justificados en dar por válido ese "hecho" si la comunidad científica le da el visto bueno.

En este artículo vamos a analizar, basándonos en la referencia [Hare2013], el cuarto postulado en el que está basado el positivismo:
  • D) Es posible ir de forma correcta y legítima de los "hechos'' a las leyes y teorías mediante el uso de la razón.
De hecho, los positivistas van más allá, y afirman que sólo tienen sentido las afirmaciones que puedan comprobarse experimentalmente de forma directa, o bien que se puedan deducir lógicamente a partir de afirmaciones comprobables experimentalmente (reduccionismo positivista).

11 may 2017

"La computación del CERN al servicio de la ciencia y su impacto en la sociedad". Conferencia. Maite Barroso y Pippa Wells

12/05/2016
19:30
Palacio del Marqués de Salamanca. Paseo de Recoletos 10. 28001. Madrid
 Organiza  Fundación BBVA
 Tipo de evento  Conferencia de divulgación
 Título  "La computación del CERN al servicio de la ciencia y su impacto en la sociedad"
 Ponente  Maite Barroso y Pippa Wells.
 Institución  CERN
 ¿Necesario confirmación? 
 Más información  http://www.fbbva.es/TLFU/tlfu/esp/agenda/eventos/fichaconfe/index.jsp?codigo=1131