Cerramos
las fronteras para que no se infiltrase el espíritu de Europa, y Europa se
vengó alzando sobre los Pirineos una barrera moral mucho más alta: la muralla
del desprecio. Desde fines del siglo XVII, nuestros sabios, nuestros filósofos,
nuestros literatos, dejaron casi enteramente de ser leídos y citados. [...] hemos
vivido, pues, durante siglos recluidos en nuestra concha, dando vueltas a la
noria del aristotelismo y del escolasticismo y desdeñosos (con excepción de
pocos paréntesis) del poderoso movimiento crítico y revisionista que impulsó en
Europa a las ciencias y a las artes. [...] A causa de esta incompleta
conjugación con Europa, nuestros maestros profesaron una ciencia muerta[1].
Con estas
palabras, el que a la postre sería premio Nobel de Fisiología y Medicina, el
navarro-aragonés Santiago Ramón y Cajal, finalizaba, en su discurso de ingreso
a la Academia
de Ciencias en 1897, una recapitulación de las distintas teorías propuestas
desde finales del siglo XVIII sobre las causas del atraso científico español
con respecto al resto de Europa. De acuerdo con este punto de vista, el hecho
de que nuestro país hubiera hecho tan pocas contribuciones notables a la Ciencia desde el siglo
XVII hasta finales del XIX no se debe a que en España
hubiera poca actividad científica durante este periodo, sino fundamentalmente a
que en las universidades españolas se trabajó dentro del marco teórico de paradigmas
científicos obsoletos: en Física predominaba el aristotélico, adoptado
por los escolásticos; en medicina, el de Galeno; y en
astronomía el de Ptolomeo, por poner algunos ejemplos. Fuera de los marcos
teóricos modernos, al margen de las orientaciones filosóficas abiertas en la Europa del siglo XVII
y sin practicar el conjunto de métodos de investigación instaurados en el resto
del continente, los maestros españoles quedaron al margen de la evolución del
pensamiento y desarrollo científico europeo[2].
Su ciencia estaba muerta porque se desarrollaba en el contexto de paradigmas muertos.
Esta oscura
etapa de la Historia
de la Ciencia
en nuestro país nos sirve como introducción del breve apunte que pretendemos
hacer a continuación acerca de la importancia que, en el desarrollo de toda
actividad científica, tiene el marco teórico en el que ésta se desarrolla. De
hecho, el punto de vista generalizado en Filosofía de la Ciencia desde los años 60
del pasado siglo es que, para poder acercarnos a una concepción de las ciencias experimentales más realista que la de las
corrientes anteriores (positivistas, falsacionistas,...), es fundamental
comprender el contexto en el que tiene lugar la actividad y esto incluye tanto
el entramado sociológico como el teórico[3]. En este artículo vamos a
citar algunos ejemplos en los que la importancia del entramado teórico es tan
grande que llega incluso hasta el punto de prevalecer sobre los efectos que
otro tipo de influencias podrían provocar.
Antes
de comenzar debemos hacer dos puntualizaciones: En primer lugar, hay que
señalar que, en mi opinión, este carácter condicionante del marco teórico tiene
la capacidad de ir más allá del ámbito puramente científico y de extenderse a
todos los aspectos de la vida humana. Así, por ejemplo, estamos acostumbrados a
ser espectadores y, a veces, participantes de debates en los que diversos
políticos son incapaces de ponerse de acuerdo acerca de las medidas a tomar
para resolver o paliar determinado problema o situación y todo ello porque,
aunque ellos no sean conscientes, esta situación ni siquiera es la misma en la
mente de cada uno de ellos. Recuerdo haber estudiado en el instituto los
famosos elementos de la comunicación: el emisor, el receptor, el mensaje,
el código, el referente, el canal… En aquella
época, desde mi ingenuidad, pensaba que uno de estos elementos era mucho más
importante que los demás: se trataba del código. Si dos interlocutores utilizan
el mismo código, pensaba yo, tienen necesariamente que entenderse. Sin embargo, hoy puedo decir que la inmensa mayoría de los
malentendidos que he presenciado en mi vida, de las dificultades que he tenido
como estudiante (y que tengo actualmente como investigador) para entender algún
texto o discurso y de las dificultades que he tenido como profesor para enseñar
Ciencia a los alumnos/as, se deben fundamentalmente a que emisor y receptor están considerando referentes distintos.
En
segundo lugar, quisiera señalar que, a pesar de esta casi-universalidad en la
que creo, he decidido ajustarme en este análisis sólo a algunos aspectos del quehacer
científico y, en concreto, de las ciencias naturales, fundamentalmente porque
considero que es un ámbito muchísimo más simple de estudio; a pesar de que ya
es, a su vez, complejísimo y vastísimo.
Es
habitual encontrarse en libros de texto de Ciencia, fundamentalmente de
bachillerato, capítulos dedicados a la naturaleza de las ciencias naturales, en
los que se afirma que fue
a partir del momento en que disciplinas como la Física , la Química y la Biología iniciaron su
camino de ciencia experimental cuando se consolidaron como «auténticas ciencias», abandonando el «oscurantismo» y el
«esoterismo» que las rodeaban en épocas anteriores. De alguna manera, esta
imagen simplificada está presuponiendo implícitamente que los hechos en
los que descansan las ciencias experimentales son anteriores a la teoría e
independientes de ella, de tal manera que bastaría
simplemente un estudio experimental serio y cuidadoso para obtener información
que constituya un fundamento firme y confiable del conocimiento científico.
Sin embargo, tras un simple estudio introductorio un poco más serio de la Historia de la Ciencia , uno se da cuenta
de que la realidad es mucho más compleja. El motivo del atraso científico
español no tiene nada que ver con que los científicos españoles en los siglos
XVII, XVIII y XIX fueran o no lo suficientemente cuidadosos y serios en sus
experimentos[4].
Un contraejemplo
bastante impactante que ilustra la falsedad de la proposición en cursivas del
anterior párrafo lo encontramos en el desarrollo de la química del siglo XIX.
En el contexto de la teoría atómica de la combinación
química, era muy interesante estudiar la validez de la famosa hipótesis de William
Prout, que afirmaba que el átomo de hidrógeno representaba el ladrillo con el
que estaban construidos los otros átomos[5]. A la luz de los
conocimientos actuales Prout no iba muy descaminado, puesto que el átomo de
hidrógeno posee en su núcleo solamente un protón, mientras que los átomos del
resto de los elementos tienen varios protones: el helio dos, el litio tres,
etc… Durante décadas, algunos de los químicos más prestigiosos hicieron un
trabajo experimental formidable para medir con una gran precisión las masas
atómicas de los distintos elementos y comprobar así si eran múltiplos de
la del átomo de hidrógeno. Lo que no sabían estos investigadores es que existen
varios isótopos de cada elemento, cada uno de ellos con el mismo número de
protones en el núcleo (número que caracteriza al elemento), pero con distinto
número de neutrones y, por tanto, con distinta masa atómica. Lo que habían
medido estos químicos con tanta precisión no eran masas exactas de átomos
individuales, sino el promedio de la masa de los distintos isótopos de las
muestran con las que trabajaban[6].
Este promedio depende tanto de las masas de cada isótopo como de la proporción
de cada uno de ellos que podemos encontrar en la naturaleza; y este último dato
puede considerarse contingente en tanto que depende, más que de las leyes
fundamentales de la naturaleza, de las características específicas de formación
y edad del planeta Tierra, de nuestro sistema solar y de nuestra galaxia[7].
Este último ejemplo
nos sirve para introducir el segundo concepto sobre el que gira este artículo:
el de paradigma asesino. Un cambio de
paradigma puede bastar para echar por tierra todo un trabajo experimental
extenso y rigurosísimo, trabajo experimental que está bien hecho, pero que ha dejado de ser relevante. A
continuación vamos a hablar de un concepto físico, el de «vacío» (que ha sufrido profundas transformaciones a lo largo de la Historia de la Ciencia ) y de cómo estas
transformaciones han ido cambiando lo que los científicos consideran relevante
o no. El motivo por el que he elegido este ejemplo es porque este concepto
ocupa un papel central en la
Física Teórica actual y está relacionado con un cambio reciente
de paradigma que está resultando ser bastante controvertido.
El
concepto de vacío ha sido objeto de múltiples discusiones filosóficas desde la Grecia antigua. La
hipótesis, sostenida por Aristóteles, entre otros, de que es imposible crear el
vacío fue sometida a diversos experimentos tanto en la Antigüedad como en el
mundo islámico medieval. La creación de vacío resultaba una empresa harto
difícil, dado que se observó que el aire tendía a ocupar siempre el máximo
espacio posible y que cuanto más aire se extraía de un recipiente más difícil
resultaba seguir extrayendo. De hecho, el primer estudio empírico del que se
tiene constancia en el que se consiguió producir el vacío data de mediados del
siglo XVII, cuando italiano Gasparo Berti inventó el barómetro de agua. Para
entender el fundamento físico de esta «producción de vacío» nos vamos a valer
del barómetro de mercurio, inventado unos años más tarde por el también
italiano Envangelista Torricelli. Éste consta de una cubeta llena de mercurio y
de un tubo (pongamos que de unos 80
cm ) cerrado en uno de sus extremos (llamémosle E1, y al
extremo abierto E2). Si se llena también el tubo de mercurio, se tapa el
extremo abierto del mismo, se le sumerge en la cubeta y se coloca en posición
vertical con el extremo E1 en la parte superior, el dispositivo queda como se
muestra en la figura 1. Se observa que, al destapar el extremo E2, el mercurio del tubo desciende unos
centímetros, dejando en la parte superior un espacio vacío[8].
La ecuación fundamental de la hidrostática nos dice que los puntos A y B se
encuentran, por estar a la misma altura, a la misma presión. Por tanto, el peso de la columna de mercurio que hay sobre el
punto A da lugar a que se ejerza una presión en A igual a la presión
atmosférica. Supongamos que ahora la presión atmosférica disminuyera
ligeramente[9]:
entonces claramente la columna de mercurio sobre A va a ser menos alta,
aumentando de tamaño el espacio vacío entre la superficie de la columna y el
final del tubo.
Figura 1 |
Este comportamiento de los fluidos que parece tan sorprendente resulta bastante
natural si nos situamos en el marco de la teoría cinético-molecular. Según esta
teoría, los gases están formados por moléculas que se mueven en un espacio vacío,
cada una con distintas velocidades (con una velocidad promedio que depende de
lo caliente que esté el gas) y que chocan unas con otras y con las paredes del
recipiente en el que está contenido. La presión no es más que la fuerza por
unidad de superficie que se ejerce como consecuencia de estos choques. Por eso la
única posición de equilibrio que puede tener una pared que separa dos gases (véase
figura 2) es aquella para la cual los dos gases tienen la misma presión. Si el
lado derecho del recipiente estuviera vacio, se ejercería una fuerza muy grande
sobre la pared que la obligaría a moverse en el sentido de hacer desaparecer el
vacio. Si no hubiera pared, nada impediría que aquellas moléculas de aire que
tengan una componente horizontal de la velocidad distinta de cero invadieran la
parte derecha del recipiente, expandiéndose el gas y desapareciendo el vacío.
Figura 2 |
Por tanto, el
vacío, aunque experimentalmente resulta muy difícil de realizar[10],
desde el punto de vista conceptual no acarrea ningún problema: el vacío es
simplemente la ausencia de partículas. En otras palabras: en este paradigma el vacío no constituye problema físico alguno. Trivialmente,
si no hay partículas no hay sistema físico que
estudiar.
Pero
las cosas no son tan sencillas. La teoría de la relatividad nos dice que no
existen las interacciones instantáneas entre partículas. Para que lo que ocurre
en un lugar pueda afectar a las partículas que hay situadas en otro lugar es
necesario que pase un tiempo, como mínimo, igual al que tardaría la luz en
llegar a ellas.
Este simple postulado acarrea un cambio radical a la hora representarnos los
sistemas físicos: implica que conceptos como el de campo (campo
electromagnético, campo gravitatorio) pasan, de ser meros artificios
matemáticos para calcular los detalles de la interacción entre partículas, a
tener entidad física propia. La aplicación de la
teoría cuántica a estas nuevas entidades físicas ha dado lugar al paradigma de
la teoría cuántica de campos (que sigue vigente hasta la actualidad). Según esta
teoría, los elementos fundamentales de los que está hecha la materia son una
serie de campos que lo impregnan todo. En este paradigma las partículas no son
más que excitaciones (estados de vibración) de los campos que se propagan de un
lugar a otro. Así, por ejemplo, los fotones son las excitaciones del
campo electromagnético y los electrones son las excitaciones de un campo
«electrónico». Si tenemos en cuenta la mecánica cuántica, estos campos sólo
pueden excitarse en niveles energéticos discretizados, de la misma forma que
los niveles de energía que tienen los átomos son discretos. Este es el motivo
por el que puede existir un electrón, dos electrones, etc… pero nunca un
electrón y medio. ¿Qué sería el vacío entonces? Pues la ausencia de partículas,
que en este caso significa que los campos se encuentran sin excitaciones (en su
estado de menor vibración)[11].
Este estado puede ser un verdadero vacío (un verdadero estado de menor
energía), o un falso vacío. En este último caso el campo posee una mínima vibración
en torno a un valor cuya energía asociada es menor que la de sus valores
vecinos, pero que no es un mínimo absoluto (véase figura 3).
Con este nuevo
paradigma, el vacío se convierte en un
problema físico formidable: no es nada trivial determinar cuáles son los
posibles estados de mínima vibración en los que pueden encontrarse los campos.
Y, además de formidable, es de máximo interés; puesto
que, como podemos observar en la figura 3, las partículas van a tener
características muy distintas según en torno a cuál de los posibles vacíos
se encuentra el campo. Por ejemplo, en el vacio B cuesta más que el campo se
excite (porque el valle es más estrecho) con lo que la masa de las partículas
va a ser mayor.
Figura 3 |
La cosa se
complica más todavía si tenemos en cuenta que, de acuerdo con la relatividad
general, el mismo espacio-tiempo es, por sí mismo, también un campo (el campo
gravitatorio). El conjunto de todos estos campos posee una densidad de energía
de vacío distinta de cero que es la responsable de que el universo se encuentre
actualmente en expansión acelerada. Esta energía aparece en las ecuaciones de
evolución cosmológica en forma de una constante, denominada constante
cosmológica. Tratar de entender por qué esta constante toma el valor observado
supone uno de los grandes problemas sin resolver de la física teórica actual.
Hasta hace unos años, el punto de vista
generalizado entre los físicos teóricos era que el problema del vacío se iba a
poder resolver en el contexto de una «teoría del todo»: una teoría que explique
la totalidad de la materia y de las interacciones que observamos en la
naturaleza sin necesidad de ajustar ningún parámetro. De hecho, el marco dominante en el que están trabajando los físicos teóricos,
la teoría de cuerdas, parecía cumplir estas características: ¡una teoría del
todo que no posee parámetros libres! Pero ocurre que actualmente no entendemos
bien la estructura de vacios de esta teoría. Por lo que sabemos hasta ahora,
resulta que esta teoría aparentemente tiene un gran número de vacíos
metaestables (quizás 101000, ¡o incluso más!) y cada uno de
ellos corresponde a un universo posible, con distintas colecciones de
partículas e interacciones entre ellas, y con distinta constante cosmológica.
Al conjunto de todos ellos se le denomina el string theory landscape. Muchos de estos
vacíos del landscape corresponden
también a un universo en expansión, de manera que, para cuando comience en
alguna pequeña región de la parte del universo situada en el vacio A el
decaimiento a otro vacio B de menor energía, ¡la región del universo
correspondiente a A ya es suficientemente grande como para poder ser todo el
universo que observamos! (véase figura 4).
Figura 4 |
Muchos
físicos teóricos, entre los que podemos destacar a Leonard Susskind y Andrei
Linde[12], piensan que esta
característica de la teoría de cuerdas es una ventaja, ya que permite una
explicación antrópica tanto del valor observado de la constante cosmológica
como de las partículas y sus interacciones: en
el universo puede haber muchísimas regiones correspondientes a los distintos
vacíos posibles (distinta constante cosmológica, distintos tipos de partículas que
interaccionan según leyes físicas distintas,
etc...), pero nosotros nos encontramos en aquella región en la que las leyes de
la física han permitido la vida inteligente.
Este punto de
vista ha tenido tan buena acogida en algunos sectores de la comunidad de
teóricos de cuerdas que inmediatamente ha suscitado la reacción de otros (entre
los que destaca el premio Nobel de Física de 2004, David Gross) por considerar
esta idea del landscape
antrópico demasiado peligrosa: se trata de una idea difícil (posiblemente
imposible) de testear. Existe la posibilidad de que, sea cual sea el resultado
de los distintos experimentos sobre el comportamiento de la naturaleza,
la teoría de cuerdas siempre tenga un vacío metaestable (con tiempo de
decaimiento del orden de la edad del universo) que explique el comportamiento
observado. Si esto es así no se trataría de una teoría científica, en el
sentido popperiano de que no sería
falsable.
El peligro del
paradigma del landscape
antrópico se debe a que, en cierto sentido, es un paradigma asesino,
como el de los isótopos del ejemplo anterior. Sugiere que los valores
observados de determinadas constantes físicas, como la constante cosmológica, ¡podrían
tener tanta relación con las leyes fundamentales de la naturaleza como las
masas atómicas promedio que midieron los químicos en el siglo XIX!, con el
consiguiente peligro de que no se busque explicación fundamental a estos
valores.
Comenzamos este artículo
citando unas palabras del premio nobel de Medicina y Fisiología de 1906 y lo
vamos a finalizar con las de otro premio Nobel, el de Física de 2004, acerca de
la utilidad en Ciencia de evitar los argumentos antrópicos:
The
main reason I think people take this anthropic argument seriously is the value of
the cosmological constant: how do we explain that? [...] It is a small number
[...] but we have explained such a small numbers before. Remember Dirac in 1937
[...] was worried about why is the Planck mass so much bigger than the proton
mass (Mproton/MPlanck=10-19)
[...] He did not invoke anthropic arguments by saying that if this number was
of order 1 we would not be here! Instead he used it to make a prediction: he
suggested that the ratio Mproton/MPlanck was related to
the size of the universe in atomic units [...] 30 years ago the Dirac’s Mproton/MPlanck
tiny ratio was explained by QCD's log running of the strong interaction
coupling from the unification scale[13].
Si Gross tiene
razón con sus advertencias o no, sólo el tiempo nos lo dirá[14].
[1] S.
RAMÓN Y CAJAL (1897): «Deberes del Estado en relación con la producción
científica», Discurso de ingreso a la Real Académia de Ciencias, reimpreso en ID.
(1963) Los tónicos de la voluntad,
Espasa-Calpe, p. 154.
[2] Enrique
GARCÍA CAMARERO y Ernesto GARCÍA CAMARERO (1970): La polémica de la ciencia española, Alianza Editorial; Enrique
GARCÍA CAMARERO (2008): «La Modernización Científica en la España del siglo XIX», Contribución al Congreso Historia y Ciencia 2008, Universidad
Carlos III de Madrid.
[3] A.
CHALMERS (1997): ¿Qué es esa cosa llamada
ciencia?, Siglo XXI.
[4] Un ejemplo clásico lo podemos encontrar en los trabajos de A. KOYRE (1981): Estudios galileanos, Siglo XXI;
y T. KUHN (1971): La estructura de las
revoluciones científicas, FCE. Para los aristotélicos,
que creían que un cuerpo pesado se desplazaba, por su propia naturaleza, de una
posición superior a una más baja hasta llegar a un estado de reposo natural, un
cuerpo que se balanceaba simplemente estaba cayendo con dificultad. Galileo, por
otra parte, al observar el cuerpo que se balanceaba, vio un péndulo, un cuerpo
que casi lograba repetir el mismo movimiento, una y otra vez. Gracias a este
nuevo punto de vista Galileo observó también otras propiedades del péndulo y
construyó muchas de las partes más importantes y revolucionarias de su nueva
mecánica. Por tanto, es a Galileo a quien hay que atribuir el mérito de
conseguir este original cambio de visión. Pero nótese que este mérito no se
manifiesta en este caso como observación más exacta u objetiva del cuerpo que
se balancea. En cuanto a la capacidad descriptiva se puede decir que la
percepción aristotélica tenía la misma exactitud.
[5] W. PROUT (1815): «On the relation
between the specific gravities of bodies in their gaseous state and the weights
of their atoms», Annals of Philosophy,
6, pp. 321-330; ID. (1816): «Correction of a mistake in the essay on the
relation between the specific gravities of bodies in their gaseous state and
the weights of their atoms», Annals of
Philosophy, 7, pp. 111-13.
[6] I. LAKATOS (1970): «Falsification and the Methodology
of Scientific Research Programmes», en ID y A. Musgrave (eds.): Criticism
and the Growth of Knowledge, Cambridge University Press, pp. 91-195.
[7] Este programa
de medir las masas atómicas es uno de los ejemplos de Lakatos de «programa de
investigación degenerado». Más tarde se propuso separar los distintos isótopos
mediante métodos basados en la centrifugación, de tal manera que este ejemplo
también le ha servido a Lakatos para ilustrar la idea de que no siempre es una
opción correcta abandonar un programa de investigación que esté degenerando.
[8] La altura de la columna de mercurio en el
tubo, medida desde la superficie del mercurio de la cubeta, es, en condiciones
normales y al nivel del mar, de 76,0
cm .
[9] Nótese que no
hace falta esperar a una borrasca. El cuñado de
Torricelli, Blas Pascal, consiguió esto llevando el barómetro a la cima de una
montaña de 1.000 metros
de altura.
[10] Ni siquiera el
vacío que se produce en el barómetro de Torricelli es un verdadero vacío puesto
que en él hay una pequeña cantidad de átomos de mercurio moviéndose, radiación
electromagnética, etc.... No obstante, para determinados experimentos podemos considerar
que es una buena aproximación de vacío.
[11] El principio de
indeterminación impide que pueda haber
un estado sin vibración alguna.
[12] L. SUSSKIND (2003): «The Anthropic landscape of
string theory», en B. Carr (ed.): Universe or multiverse? 247-266, e-Print: hep-th/0302219; A. LINDE (2007): «Eternal Inflation and String
Theory Landscape», en Strings 07 Madrid
<http://www.ift.uam.es/strings07/040_scientific07_contents/videos/
linde.mp4>.
[13] D.
GROSS (2007): «Perspectives», en Strings
07 Madrid
<http://www.ift.uam.es/strings07/040_scientific07_contents/videos/gross.mp4>.
[14] Artículo publicado en Isagogé, ISSN-e 1885-2475, Nº. 5, 2008. Quisiera dar las
gracias a Silvia Cid, Guillermo Ballesteros y Carlos Hoyos por sus comentarios
y sugerencias, que han sido de gran utilidad para la mejora del texto. También
quisiera agradecer a Enrique García Camarero el haberme dado la oportunidad de
acercarme a su trabajo, de cuya lectura me surgió la idea de escribir este
artículo, y diversas tertulias de las que he aprendido mucho.
Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.
Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.
Te sigo leyendo y me sigue pareciendo muy interesante. El alumno supera al profesor como debe ser. Un abrazo
ResponderEliminarGracias Ana por el comentario. Viniendo de alguien a quien admiro tanto, me hace muy feliz. De "superar" nada. Me doy por satisfecho si consigo motivar a mis alumnos y cambiarles la vida un 10% de lo que hiciste tú con nosotros.
EliminarUn abrazo.