27 dic 2020

Guía de prácticas de laboratorio


En esta entrada los estudiantes de bachillerato y de primeros años de universidad pueden encontrar la información básica que necesitan para iniciarse en el trabajo experimental en el laboratorio. Yo no soy partidario de dar a los estudiantes un guion de prácticas detallado para cada práctica que indique paso a paso todo lo que hay que hacer. En su lugar, prefiero obligar a los estudiantes a diseñar ellos el experimento.

Diseño del experimento

En ciencia los experimentos se diseñan con un objetivo: poner a prueba una o varias hipótesis que tratan de responder a lo que nos estamos preguntando. Estas hipótesis pueden ser afirmaciones aisladas o enunciados que forman parte de una teoría previa al experimento, pero en ambos casos se han elaborado de acuerdo con los conocimientos que se tienen hasta el momento sobre el tema. Por ello, antes de diseñar el experimento tenemos que dejar claro en nuestro cuaderno de laboratorio cuál es la/s pregunta/s que tratamos de responder y con qué hipótesis trabajamos para responderla/s.

A continuación diseñamos el experimento para poner a prueba esas hipótesis. Para ello, dibujamos en nuestro cuaderno de laboratorio un esquema del montaje experimental, indicamos qué magnitudes vamos a medir y cómo vamos a hacerlo. De esta forma preparamos nuestro cuaderno de laboratorio (físico en papel o electrónico) con una serie de tablas con las casillas vacías donde vamos a ir escribiendo los datos experimentales según los vayamos obteniendo. Junto que esas tablas tiene que venir bien claro en nuestro cuaderno cómo vamos a analizar esos datos y qué vamos a calcular a partir de ellos. También indicamos qué esperamos obtener en este análisis si la hipótesis que estamos sometiendo a examen fuera correcta.

Nótese que a la hora de hacer todo esto necesitamos trabajar con hipótesis auxiliares (por ejemplo, “el rozamiento es despreciable”, “este tiempo es muy pequeño con respecto al otro y lo despreciamos”, etc) muchas de las cuales puede que no vayamos a comprobar ni siquiera a posteriori. Es muy importante que apuntemos también estas hipótesis adicionales en nuestro cuaderno ya que los resultados de nuestro experimento no van a ser generales, van a depender de que estas hipótesis adicionales sean correctas. Es decir, al final sólo podremos afirmar que “siempre que el rozamiento sea despreciable se cumplirá esta conclusión: …”, etc.

Es importante no olvidarse de que es falso que en ciencia el experimento sea anterior a la teoría e independiente de ésta. Hay algunas cuestiones básicas de filosofía de la ciencia que conviene tener claras antes de entrar en el laboratorio:


Ejecución del experimento

Una vez montado el experimento, antes de medir, tenemos que comprobar que hemos escrito en nuestro cuaderno todas las hipótesis y que hemos indicado cuáles vamos a comprobar y cuáles no. A continuación nos familiarizamos con el funcionamiento del dispositivo y de todos los aparatos y sólo después de esto comenzamos a medir rellenando la tabla que hemos preparado (¡NADA DE RETENER LOS DATOS EN LA MEMORIA EN VEZ DE APUNTARLOS!). En este punto hay que tener especial cuidado en:
  • apuntar la sensibilidad de todos los aparatos de medida utilizados
  • estudiar cómo de preciso es el método utilizado. Esto lo hacemos midiendo las veces que consideremos conveniente (más veces cuanto más dispersos se obtengan los datos), tomando como el valor de la medida la media de todas las medidas y como su incertidumbre experimental el mayor entre la sensibilidad y el error de precisión. Todo esto también se apunta en el cuaderno de laboratorio. El error de precisión (error aleatorio) se puede estimar burdamente en Bachillerato calculando el resultado de restar el mayor menos el menor y dividir entre dos. En la universidad vas a necesitar calcular la desviación típica con la corrección de Bessel.
Para hacer esto es muy importante que tengas claro cuál es la diferencia entre sensibilidad, precisión y exactitud: 

Análisis de los resultados

Tras realizar el experimento analizamos los resultados siguiendo los pasos que habíamos previsto en nuestro cuaderno de laboratorio. En este análisis es muy importante que estimes bien cuáles son las incertidumbres experimentales y cómo se propagan. La información que necesitas para hacer esto la tienes en estos vídeos:
La mejor forma de analizar unos resultados experimentales es mediante gráficas. Típicamente lo que hacemos será, si lo que queremos es comprobar una ley de la forma y=mx+n, representar los puntos (x,y) en una gráfica para:
  • Comprobar hasta qué grado se aproximan a una recta. Esto lo hacemos realizando el ajuste de mínimos cuadrados y viendo cuantos nueves tiene el coeficiente de correlación obtenido.
  • Hallar m y n (cada una con su error) para la recta que mejor se ajusta a los datos experimentales y comprobar si corresponden con los valores esperados.
Puedes aprender a hacer esto con este vídeo:

Elaboración de la memoria de prácticas

Al final el alumno tendrá que elaborar un breve informe de todo el trabajo realizado y entrégaselo al profesor. El informe debe incluir todos y cada uno de los apartados siguientes:
  1. Portada. Con tu nombre y apellidos, grupo, nombre del profesor, nombre de la práctica realizada y nombre de los compañeros con los que realizaste la práctica.
  2. Breve introducción teórica. Se debe redactar una breve descripción del objetivo/objetivos de la práctica ¿Qué pretendíamos averiguar? ¿Qué hipótesis vamos a comprobar que tratan de dar respuesta a esa pregunta? ¿Qué propiedades hemos medido para conseguirlo? ¿Cómo se definen esa propiedades?
  3. Breve descripción del método utilizado, del montaje experimental y de las HIPÓTESIS UTILIZADAS. No olvides indicar qué magnitudes se han medido directamente y cómo se ha procedido para calcular las magnitudes derivadas buscadas; así como una exposición del método de medida. Indica también si el método utilizado para medir es preciso o no y cuál es la sensibilidad de los aparatos utilizados.
  4. Datos experimentales. Se presentarán los resultados experimentales, en forma de tablas. Comenta también las incidencias ocurridas en la realización de la práctica.
  5. Presentación y discusión de los resultados. Conclusiones. LOS RESULTADOS HAN DE PRESENTARSE CON CLARIDAD, ¡con sus unidades, errores absolutos y errores relativos! Ha de indicarse cómo se han obtenido los resultados y presentarlos mediante gráficas. Éstos han de ir acompañados de su correspondiente discusión. No olvides contrastar las hipótesis que inicialmente hiciste (las que se puedan ¿son correctas? ¿no lo son?). Si existiese alguna discrepancia con lo esperado de antemano intenta explicar las posibles causas. Expón, si es posible, las sugerencias que tienes para mejorar y/o continuar con ese trabajo experimental.
  6. Conclusiones.
  7. Bibiografía utilizada. Indispensable.


10 oct 2020

Funciones de onda que dependen a la vez de las coordenadas y de los momentos. Parte 2: Estados estrujados generalizados y funciones de distribución cuánticas

En el artículo anterior hemos visto que es posible definir una representación, denominada holomorfa, en la que las funciones de onda dependen, a la vez, de las coordenadas $q$ y de los momentos $p$. Aunque el sistema cuántico con el que estamos trabajando sea muchísimo más complicado que el oscilador armónico, dado un número real positivo $\omega$, podemos definir los correspondientes operadores aniquilación y creación como
$ \hat{a}=\frac{1}{\sqrt{2\hbar\omega}} (\omega \hat{q} + i \hat{p}) $
$ \hat{a}^\dagger=\frac{1}{\sqrt{2\hbar\omega}} (\omega \hat{q} - i \hat{p}) $
de forma que $\omega$ se interpreta como la frecuencia asociada a un oscilador armónico de masa $m=1$. Denotamos los correspondientes estados estacionarios de este oscilador como $|n\rangle$. Si trasladamos el estado fundamental de este oscilador armónico por el espacio de fases hasta que esté centrado en el punto $(q,p)$, podemos obtener el estado coherente $|\alpha\rangle$, donde $\alpha$ es un número complejo cuyas partes reales e imaginaria son, salvo factores multiplicativos, respectivamente $q$ y $p$.
$ \alpha=\sqrt{\frac{\omega}{2\hbar}} \left( q+\frac{i}{\omega} p \right) $
Para conseguir la función de onda correspondiente al estado $|\psi \rangle$ en esta representación sólo hay que multiplicar escalarmente este estado por el estado coherente.
$ |\alpha\rangle_{\rm bad} = e^{\frac{1}{2}|\alpha|^2} | \alpha\rangle $
Este estado no está normalizado a la unidad. Esto es importante, porque si tomamos el módulo al cuadrado de la función de onda en la representación holomorfa,
$ | _{\rm bad} \langle \alpha |\psi\rangle |^2 $
lo que se obtiene es el módulo al cuadrado de un producto escalar de estados cuánticos donde uno de ellos no está normalizado a la unidad. Es por ello que no podemos interpretar el módulo al cuadrado de la función de onda en la representación holomorfa como una probabilidad cuántica.

También hemos visto que la versión normalizada de este estado coherente no es más que el estado fundamental para un oscilador armónico (que es un estado que satura la relación de indeterminación de Heisenberg) trasladado por el espacio de fases mediante el operador desplazamiento de Weyl.
$ |\alpha\rangle = e^{-\frac{1}{2}|\alpha|^2} e^{\alpha \hat{a}^\dagger} |0\rangle$
Por ello, si normalizamos adecuadamente a la unidad los estados coherentes utilizados como base en la representación holomorfa, aunque ésta deja de ser holomorfa, el módulo al cuadrado de la función de onda así obtenida
$ | \langle \alpha |\psi\rangle |^2 $
sí que es una probabilidad cuántica asociada a cada punto del espacio de fases. A esta distribución de probabilidad se la denomina distribución de Husimi. ¿Cuál es su significado físico y qué propiedades tiene? Una de las cosas que vamos a hacer en este artículo es ver en mayor detalle cómo podemos utilizar los estados coherentes para definir funciones de distribución de probabilidad en el espacio de fases.

Las bases de estados coherentes nos permiten explorar en qué punto del espacio de fases se encuentra una partícula cuántica, con la mejor resolución posible dentro de lo que nos permite el principio de indeterminación. La pregunta que surge ahora es, ¿es la representación de estados coherentes la más general posible que se puede conseguir con la técnica de realizar transformaciones en el espacio de fases sobre el estado fundamental del oscilador armónico? Además de traslaciones en el espacio de fases, podemos someter también al estado fundamental del oscilador armónico a otras transformaciones, como rotaciones y estrujamientos. Para asegurarnos de que estamos trabajando con la base de estados $|q,p\rangle$ más general posibles, en este artículo vamos a estudiar cómo afectan a estos estados las distintas transformaciones que podemos hacer en el espacio de fases de la partícula. Esto nos va a permitir generalizar los resultados de la primera parte de este artículo.

17 ago 2020

Funciones de onda que dependen a la vez de las coordenadas y de los momentos. Parte 1: La representación holomorfa


El principio de indeterminación nos dice que, cada partícula, en su movimiento, no sigue una trayectoria bien definida. Un error común consiste en pensar que lo que nos dice este principio es que las trayectorias de las partículas están ocultas para nosotros. Sin embargo, el principio de indeterminación va mucho más allá. Lo que dice no es sólo que no podemos saber con total precisión cuál es la trayectoria que ha seguido una partícula, sino que la trayectoria, como ente físico, no existe. Usted, querido lector, puede afirmar que su cuerpo ha seguido, desde que se levantó esta mañana de la cama hasta el lugar donde ha tomado el desayuno, una trayectoria bien definida con una precisión de más/menos un micrómetro, pero cada uno de los electrones, protones y neutrones que forman parte de su cuerpo no ha seguido ninguna trayectoria concreta. Y, si no han seguido ninguna trayectoria bien definida, tampoco tienen en cada instante de tiempo unos valores de las coordenadas que dan la posición $q$ y las que dan el momento $p$ bien definidos simultáneamente (ya que, si estuvieran bien definidos en cada instante de tiempo, entonces la trayectoria también estaría bien definida).

Aunque todos los sistemas físicos obedecen al principio de indeterminación, sí es posible seguirle el rastro, seguirle la trayectoria con cierta incertidumbre experimental, a la mayoría de los sistemas macroscópicos. Por ejemplo, es posible ver cómo una aguja de un aparato de medida va pasando de la posición 5 a la posición 6. De esto se aprovecha la mecánica cuántica: los aparatos de medida con los que estudiamos los sistemas físicos son siempre, en buena aproximación, clásicos. Estudiando cómo evoluciona ese sistema clásico mientras interacciona con el sistema cuántico podemos obtener información sobre el sistema cuántico. Este truco nos permite hacer física a pesar del principio de indeterminación.

Pero el precio que tenemos que pagar es trabajar con magnitudes físicas que no son características sólo del sistema cuántico, sino que son propiedades del conjunto formado por el sistema cuántico y los aparatos de medida [Landau1962]. Las características dinámicas de los objetos cuánticos sólo están, por tanto, asociadas a los resultados de la medición cuántica, y por eso se les llama "observables". Por ejemplo, si dispongo los aparatos para medir con muchísima precisión la posición de una partícula, el observable posición $q$ tomará un valor bien definido, y podemos llamar $|q\rangle$ al estado cuántico en el que se encuentra la partícula. Pero entonces el observable momento $p$ no tomará una valor bien definido. ¡Ojo! No es que tome un valor bien definido desconocido para nosotros, sino que no toma ningún valor en concreto. Al ser una característica asociada, no sólo al sistema cuántico, sino también a una disposición concreta de los aparatos de medida que hemos decidido no implementar, es una característica de algo que no existe en ese momento y, por tanto, su valor no existe en ese momento. Si, después, ponemos los aparatos de medida de tal forma que midan la velocidad, entonces el observable momento $p$ sí tomará un valor bien definido y llamamos al estado cuántico correspondiente $|p\rangle$, pero entonces el observable posición $q$ estará indeterminado. Por simplicidad nos limitaremos al caso unidimensional en el que hay sólo una coordenada espacial $q$ y su momento asociado $p$, pero todo lo que vamos a ver se puede generalizar para cualquier número de dimensiones.

En general, el estado mecanocuántico $|\psi \rangle$ en que se encuentra una partícula va a ser un estado superposición de estados $|q\rangle$ con posición bien definida diferente:
$ | \psi \rangle = \int dq \psi (q) | q \rangle $
Esto significa físicamente que en el estado $| \psi \rangle$ la posición de la partícula no toma un valor bien determinado. Los coeficientes $\psi(q)$ de esta superposición nos dan las amplitudes de probabilidad de que, al medir la posición de la partícula, obtengamos el valor $q$. A la función $\psi$ que asigna a cada posición $q$ la amplitud de probabilidad $\psi (q)$ se la denomina función de onda en la representación de coordenadas de Schrödinger. El tamaño del rango en el que $\psi (q)$ es muy distinta de cero nos da una idea aproximada de cómo de indeterminada está la posición de la partícula.

Análogamente, este mismo estado $|\psi \rangle$ también se puede escribir como superposición de estados $|p\rangle$ con momento bien definido diferente:
$ | \psi \rangle = \int dp \tilde{\psi (p)} | p \rangle $
Esto significa físicamente que en el estado $| \psi \rangle$ el momento de la partícula no toma un valor bien determinado. Los coeficientes $\tilde{\psi(p)}$ de esta superposición nos dan las amplitudes de probabilidad de que, al medir el momento de la partícula, obtengamos el valor $p$. A la función $\tilde{\psi}$ que asigna a cada momento $p$ la amplitud de probabilidad $\tilde{\psi} (p)$ se la denomina función de onda en la representación de momentos de Schrödinger. El tamaño del rango en el que $\tilde{\psi} (p)$ es muy distinta de cero nos da una idea aproximada de cómo de indeterminado está el momento de la partícula.

La función $\tilde{\psi} (p)$ contiene exactamente la misma información que la función de onda en la representación de coordenadas $\psi (q)$ y todo estudiante de física sabe que se puede pasar de una a la otra mediante una transformación unitaria que se denomina transformada de Fourier.

Por tanto, parece que tenemos básicamente dos opciones. O bien representamos el estado cuántico $|\psi\rangle$ mediante la función de onda $\psi(q)$, con la que se visualiza perfectamente la indeterminación de la posición de la partícula, o bien trabajamos con $\tilde{\psi}(p)$ para visualizar la indeterminación en el momento. Sin embargo, en realidad existen infinitas formas de especificar el estado cuántico que son distintas a $\psi(q)$ y $\tilde{\psi}(p)$. ¿Es posible construir una función de onda $\psi^\prime (q,p)$ que represente al estado cuántico $|\psi\rangle$ y que sea dependiente tanto de las coordenadas como de los momentos? Eso es lo que vamos analizar en este artículo.

10 jul 2020

¿Qué es cuantizar?

A principios del siglo XX la física sufrió dos revoluciones que la cambiaron para siempre. La mayor de ellas, la revolución cuántica, nos hizo ver que objetos matemáticos que dábamos por hecho que poseían existencia física, como, por ejemplo, la trayectoria de las partículas, en realidad de forma precisa no existen en la naturaleza. El principio de indeterminación nos dice que las partículas elementales no son ni ondas ni corpúsculos clásicos, sino unos objetos cuánticos que, en su movimiento, no siguen una trayectoria bien definida. En la teoría que describe el comportamiento de estos objetos, la mecánica cuántica, las variables dinámicas como la posición $x$ o la cantidad de movimiento $p$ no son números reales, sino operadores $\hat{x}$, $\hat{p}$ en un espacio vectorial cuyos elementos son los estados de la partícula cuántica. El principio de indeterminación da lugar a que estos operadores no conmutan, sino que obedecen a la relación de conmutación $ [\hat{x},\hat{p}]=i\hbar$. Todo en la naturaleza es cuántico y, por tanto, obedece a los principios de la mecánica cuántica.

Se denomina cuantización a los procedimientos que nos permiten obtener una descripción cuántica de un sistema físico a partir de su descripción clásica. Gracias a los métodos de cuantización, podemos pasar de la mecánica clásica de un sistema físico a la mecánica cuántica del mismo. Por ejemplo, si tomamos el oscilador armónico clásico, cuyo hamiltoniano$$
H=\frac{{p}^2}{2m}+\frac{1}{2}m\omega^2{x}^2
$$ es una constante de movimiento que puede tomar cualquier valor mayor o igual que cero, y promocionamos las funciones $x$ y $p$ del espacio de fases a operadores en un espacio de Hilbert con la relación de conmutación antes descrita, obtenemos el oscilador armónico cuántico. En éste, por culpa del principio de indeterminación, el estado de menor energía no es el de $E=0$, sino el de $E=\hbar \omega /2$, mientras que los demás niveles toman, por ser un sistema ligado, valores discretos, en este caso separados por $\hbar \omega$. Análogamente, si cogemos la descripción clásica del átomo de hidrógeno, la del modelo de Rutherford, en la que un electrón orbita en torno a un protón, y promocionamos la posición y la cantidad de movimiento del electrón a operadores, obtenemos el modelo mecanocántico del átomo de hidrógeno, en el que, también por culpa del principio de indeterminación, el electrón en el estado de menor energía está deslocalizado en torno al protón en una región de un tamaño del orden de magnitud de $$ a_0=\frac{4\pi \epsilon_0 \hbar^2}{me^2}$$
Al método de cuantización que acabamos de describir se le denomina cuantización canónica. Éste consiste en promocionar a operadores las funciones del espacio de fases del sistema clásico, imponiendo las relaciones de conmutación adecuadas. Sin embargo, éste no es el único método de cuantización que existe. Hay otros métodos, como son la cuantización geométrica, la integral de camino de Feynman, la basada en las funciones de distribución cuánticas, etc.

En los dos ejemplos que acabamos de mencionar, o en el caso más general de una partícula no relativista sometida a un potencial $V(x)$, al promocionar $x$ y $p$ a operadores no tenemos ningún problema de ambigüedad en la mayoría de las aplicaciones por el hecho de que en la teoría cuántica $\hat{x}$ y $\hat{p}$ no conmutan. Sin embargo, en el momento en el que estamos interesados en observables que clásicamente sean funciones tanto de $x$ como de $p$, o en sistemas con hamiltonianos que poseen términos que combinan $x$ con $p$ (como por ejemplo en el caso de una partícula cargada) entonces hay distintas formas de asignar, a cada observable $f(x,p)$ en mecánica clásica, su correspodiente observable $f(\hat{x},\hat{p})$ en mecánica cuántica. Hay distintas asignaciones posibles porque estos observables dependen de con qué criterio se ordenan los productos de $x$ con $p$. A cada una de estas formas se le denomina esquema de cuantización, y cada uno de ellos da lugar a predicciones distintas, con lo que es importante saber cuál es el adecuado en cada caso. Es importante señalar que este problema de saber qué orden es el adecuado en el hamiltoniano y en los observables mecanocuánticos aparece de forma genérica incluso aunque impongamos que estos operadores deben ser hermíticos. La condición de hermiticidad no es suficiente para fijar sin ambigüedad qué observable mecánocuántico $f(\hat{x},\hat{p})$ es el que se corresponde con el observable clásico $f(x,p)$. Son en última instancia los experimentos los que tienen que decidir cuál es el esquema de cuantización adecuado para un sistema físico.

Bien, supongamos que tenemos resuelto para un sistema físico concreto el problema del esquema (orden) de cuantización. Para muchos estudiantes, la cuantización es un procedimiento que, aunque pueda ser en la mayoría de casos mucho más largo y tedioso que en el oscilador armónico o el átomo de hidrógeno, es directo, una vez que se ha elegido el esquema de cuantización adecuado. Piensan que los distintos métodos de cuantización son recetas infalible mediante las cuales, a partir de una teoría clásica concreta, se obtiene su correspondiente teoría cuántica.

En este artículo vamos a ver por qué esta visión ingenua que tienen en general los estudiantes después de su primer curso de mecánica cuántica en la universidad es incorrecta, y que la razón es mucho más profunda que la ambigüedad de orden que acabamos de mencionar. Esto lo vamos a hacer utilizando como ejemplo los intentos de cuantización de la partícula relativista. De la misma manera que en nuestro primer curso de cuántica en la universidad teníamos una partícula clásica no relativista sometida al potencial del oscilador armónico, o al del átomo de hidrógeno, y la hemos hecho cuántica, ahora vamos a intentar hacer lo mismo con la partícula relativista. A ver qué ocure.

6 jun 2020

La vuelta a clase "voluntaria" vulnera el derecho a la educación de niñas, niños y adolescentes


En la película El Cabezota, Pedro Pinzalez es un hombre viudo que vive con su hijo Pedrín, de unos siete años de edad, cazando, pescando y cultivando la huerta familiar. Esto le lleva a considerar que enseñar a vivir a su hijo es mejor que cualquier otro tipo de educación, y por ello se niega a llevar a Pedrín a la escuela cuando en 1857 entra en vigor la Ley Moyano, que establecía la obligatoriedad de la primera enseñanza. Que un padre se oponga a que su hijo reciba cualquier tipo de educación es una actitud que nos parece de una necedad que roza lo absurdo, incluso aunque se trate de una historia ambientada en el siglo XIX, pero la realidad en España es que más de un siglo después de que se promulgara la Ley Moyano se seguía sin escolarizar al 100% de los niños y niñas, tanto por oposición de algunas familias como por el hecho de que las administraciones no garantizasen plazas para todos en los colegios.

Hoy el Estado Español es, desde 1978, un estado democrático en el que la educación se considera un derecho fundamental. Este derecho, como tal, viene recogido en la Constitución. El artículo 27 establece que todos tienen derecho a la educación y, además, define de un modo preciso el concepto de educación que habrá de ser aplicado cuando señala que "la educación tendrá pòr objeto el pleno desarrollo de la personalidad humana en el respeto a los principios democráticos de convivencia y a los derecho y libertades fundamentales". Para garantizar ese derecho a la educación de nuestros niños, niñas y adolescentes, la Ley Orgánica de Educación (LOE) y su modificación posterior, la nefasta LOMCE, establecen como obligatorias las etapas de educación primaria (desde los 6 hasta los 12 años) y la secundaria obligatoria (hasta los 16 años).

Es importante señalar que no fue nada fácil conseguir esta obligatoriedad para todos hasta los 16 años. El primer paso importante lo dio la Ley General de Educación de 1970, que posibilitó en la década de los setenta del pasado siglo la escolaridad de la totalidad de la población por primera vez en la historia de España, y que no se discriminara a los niños y niñas a los 10 años, como ocurría con la Ley Moyano. Y no fue hasta 1990 cuando, con una nueva ley, la LOGSE, nuestros gobernantes tomaron la valiente decisión de garantizar que todos los menores de 16 años estén escolarizados independientemente de su condición socioeconómica o del interés que tengan sus progenitores en su educación.

Nunca me he visto en la necesidad de tener que explicar esto a nadie, ni mucho menos de escribir sobre este asunto, hasta que la respuesta que nuestros gobernantes están dando en materia educativa a la pandemia del COVID-19 me ha dejado de piedra. Voy a centrarme en la Comunidad de Madrid, pero en el resto de comunidades autónomas está ocurriendo algo parecido.

20 may 2020

Hay matemáticas que no serán obligatorias en el Bachillerato de Ciencias, pero no son las que tú piensas

Seguramente habrás leído que con la nueva ley educativa, la LOMLOE, la asignatura de Matemáticas va a dejar de ser obligatoria en el Bachillerato de Ciencias y en el de Sociales. Es un motivo para estar muy enfadado. Tener conocimiento sólido de matemáticas a nivel de bachillerato es fundamental para casi cualquier actividad en la sociedad actual, ya sea a nivel laboral o a nivel de ejercer nuestros derechos como ciudadanos en un país democrático. No debería repetirse en nuestro país la vergonzosa escena que tuvo lugar en cierto debate electoral, en la época en la que la mayoría de los españoles pensaba que sólo era viable votar a dos únicos partidos, en la que el líder del Partido Socialista Obrero Español mostraba una gráfica acerca de la evolución del precio de la vivienda y, probablemente a causa de su ignorancia él, y de claras malas intenciones por parte de sus asesores, confundía la función que nos da el precio medio de la vivienda en España en cada instante de tiempo con su derivada (en concreto, con la derivada de su logaritmo neperiano). El líder del Partido Popular podía haber destrozado a su contrincante allí mismo, poniendo en evidencia el grave error básico en matemáticas de su adversario, si no hubiese sido porque los "sobres" que le habían dado no eran precisamente "sobresalientes en las asignaturas de matemáticas". Pocos se dieron cuenta de que realmente el precio de la vivienda no estaba disminuyendo, sino que lo que disminuía era la velocidad con la que aumentaba el precio de la vivienda. Dos líderes políticos completamente anuméricos estaban disputándose la presidencia del gobierno gracias al anumerismo generalizado de los ciudadanos que estaban llamados al voto.

Durante la primera semana de marzo de 2020, mientras crecía exponencialmente el número de infectados con SARS-CoV-2, ningún líder político de ningún partido tenía entre sus asesores a nadie pendiente de la epidemia que dominara las matemáticas a nivel de bachillerato, y eso resultó en un retraso de una semana por parte de todas las administraciones en reforzar el sistema sanitario y tomar medidas. Aunque, quizás, el ejemplo más claro de por qué es peligroso un anumerismo generalizado entre la población es que la extrema derecha se vale de este anumerismo para propagar su mensaje de odio.

Como iba diciendo, que la asignatura de Matemáticas deje de ser obligatoria en Ciencias y en Sociales es un motivo para estar muy enfadado. Y yo estaría muy enfadado si realmente fuera así. Sin embargo, lo que ocurre es que la asignatura de Matemáticas sí va a ser obligatoria en el Bachillerato de Ciencias y en el de Sociales. Hay periodistas que están mintiendo. Entonces, ¿a qué viene el revuelo que están montando los matemáticos en las redes sociales? ¡Si hasta las tres reales sociedades (Matemáticas, Física y Química) han emitido un comunicado conjunto de queja! Voy a tratar de explicar lo que está pasando.


11 may 2020

Trabajo y energía para 1º de Bachillerato

Una vez los estudiantes de Bachillerato están familiarizados con el concepto de producto escalar
pueden estudiar el concepto físico de trabajo realizado por una fuerza sobre un cuerpo como el producto escalar de esa fuerza por el vector desplazamiento, cuando la fuerza es constante. En este vídeo se explica también qué pasa si la fuerza no es constante, y se aclara la relación entre trabajo, energía cinética, energía potencial, energía mecánica y calor:





5 may 2020

Planos inclinados y masas enlazadas para 1º de Bachillerato

En este vídeo explico a los estudiantes de 1º de Bachillerato cómo utilizar las leyes de Newton para resolver problemas de planos horizontales e inclinados. Explico que la normal es la fuerza que ejerce el plano sobre el objeto para evitar ser penetrado y, como tal, su módulo es lo justo para evitar que el plano sea penetrado. También explico que la fuerza de rozamiento no se opone el movimiento, sino al movimiento relativo entre los dos objetos que friccionan. Por último, también explico que cuando la superficie no es plana (plano inclinado con inclinación variable, es decir, que no es plano) la normal no es igual a la componente del peso perpendicular al plano.


En este otro vídeo explico cómo los objetos físicos pueden ejercerse fuerzas entre ellos a través de la tensión de una cuerda, y explico cómo funciona la polea:

27 abr 2020

Movimientos en el plano para 1º de Bachillerato

En este vídeo explico a los estudiantes de 1º de Bachillerato cómo descomponer el movimiento de un objeto que se mueve por un plano en dos movimientos: uno en el eje x y otro en el eje y.


En este otro vídeo explico que esta descomposición muchas veces es más útil tomando como referencia, en vez de los ejes cartesianos x e y, la dirección de la velocidad:
  • La componente de la fuerza total que se aplica sobre el cuerpo en la dirección de la velocidad se denomina fuerza tangencial, y provoca que el módulo de la velocidad cambie.
  • La componente de la fuerza total en la dirección perpendicular a la velocidad se denomina fuerza centrípeta o fuerza normal, y provoca que vaya cambiando la dirección de la velocidad.

25 abr 2020

Cómo explicar en 1º de bachillerato que las leyes de Newton vienen de la conservación del momento lineal

En este vídeo explico, a nivel de 1º de bachillerato, por qué las leyes de Newton en el fondo son consecuencia de la ley de conservación del momento lineal, también llamado cantidad de movimiento. Considero que, al contrario de lo que se hace tradicionalmente, es mejor enfocar en este curso las leyes de Newton como una consecuencia de las transferencias de cantidad de movimiento entre cuerpos.

23 abr 2020

Cinemática para estudiantes de 4º de ESO y 1º de Bachillerato

Enseñar a los estudiantes de 4º de ESO los contenidos de cinemática, básicamente movimientos rectilíneos, entraña la dificultad de que los estudiantes de estas edades todavía no saben representar gráficamente correctamente funciones de una variable real, ni conocen todavía el concepto de derivada.

En este post recopilo materiales de elaboración propia para que los estudiantes comprendan los conceptos de velocidad y aceleración desde un triple punto de vista: físico, algebraico y geométrico.

16 abr 2020

El principio de relatividad para estudiantes de 4º de ESO y 1º de Bachillerato

El principio de relatividad forma parte del currículo oficial de las asignaturas de Física y Química de 4º de ESO y de 1º de Bachillerato, porque es fundamental para entender la ley de inercia. Probablemente sea el principio más importante y más fundamental de toda la física. En éste está basada tanto la física de Newton como la de Einstein. Aquí tenéis acceso a unos recursos para trabajar este contenido con los estudiantes. Hay que trabajarlo por el orden que viene aquí, y es conveniente debatir en clase los contenidos de los vídeos tras verlos o, si es online, hacer preguntas a los estudiantes tras ver cada vídeo para comprobar qué han entendido.

  • Visionado del vídeo:


  • Visionado de otro vídeo al que puede accederse mediante este enlace.

  • Visionado de un tercer vídeo:

7 abr 2020

Por qué el momento angular sólo puede tomar valores discretos en mecánica cuántica

Vector model of orbital angular momentum.svg

La mecánica cuántica ha cambiado para siempre nuestra concepción del mundo físico, de la teoría de la información y hasta de los objetos matemáticos. Un ejemplo de esto último es lo que ocurre con los grupos de transformaciones. La forma en la que un grupo $G$ de transformaciones actúa sobre un sistema físico puede ser muy complicada. El sistema físico puede ser altamente no lineal y tener una estructura geométrica altamente no trivial. Sin embargo, el principio de superposición de estados cuánticos nos dice que en mecánica cuántica los estados en los que se puede encontrar todo sistema físico son elementos de un espacio vectorial $\mathcal{H}$, ya que cualquier combinación lineal de varios estados cuánticos representa otro estado cuántico posible para el sistema. Esto significa que a cada elemento $g$ del grupo $G$, al actuar sobre el sistema físico, le corresponde una transformación lineal $\pi(g)$, un operador, que actúa sobre este espacio vectorial de estados cuánticos. Y las transformaciones lineales son mucho más fáciles de estudiar. Además, esas transformaciones tienen que ser unitarias, ya que éstas son las únicas que conservan la probabilidad total, ya que la suma de las probabilidades de todos los posibles sucesos en mecánica cuántica tiene que ser siempre igual a uno, por muchas transformaciones que apliquemos al sistema físico.

Se dice que el conjunto de todas estas transformaciones lineales sobre el espacio de estados cuánticos forma una representación del grupo $G$ sobre el espacio $\mathcal{H}$. Más concretamente, una representación es una función $\pi$ que asocia, a cada elemento $a$ de un grupo, su correspondiente transformación lineal $\pi(a)$ en un espacio vectorial, de manera que la estructura del grupo se respete, es decir, que da lo mismo componer dos transformaciones y hallar la representación del resultado, que componer las representaciones de cada transformación. Matemáticamente, se escribe $$
\pi(b) \cdot \pi(a)=\pi(ba)
$$ Es evidente que mapear todos los elementos de un grupo a la transformación identidad en un espacio vectorial es trivialmente una representación, que se denomina representación trivial o escalar. Lo interesante para los matemáticos es estudiar las representaciones no triviales de los distintos grupos que reproduzcan la estructura de los mismos de forma fiel. A la dimensión del espacio vectorial $\mathcal{H}$ sobre el que actúan los operadores $\pi(g)$ se la denomina dimensión de la representación $\pi$. También es interesante desde el punto de vista matemático estudiar cuáles son las representaciones irreducibles de cada grupo $G$. Éstas son aquellas que no tienen subrepresentaciones, es decir, donde no hay ningún subespacio vectorial propio $\mathcal{H}^\prime \subset \mathcal{H}$ tal que $\pi$ actuando sobre $\mathcal{H}^\prime$ sea una representación. Esto es así porque, dadas dos representaciones $\pi_1$ y $\pi_2$ actuando sobre dos espacios vectoriales $\mathcal{H}_1$ y $\mathcal{H}_2$, siempre es posible construir la representación suma directa $\pi_1 \oplus \pi_2$ que actúa sobre el espacio vectorial suma directa $ \mathcal{H}_1 \oplus \mathcal{H}_2$ generado por el conjunto de vectores que surge al unir el conjunto de los vectores de una base de $ \mathcal{H}_1 $ con el de una base de $\mathcal{H}_2$. En notación matricial:

En física, sin embargo, lo interesante es saber en cada caso concreto bajo qué representaciones transforman los estados cuánticos de cada sistema físico. Como todas estas representaciones tienen que ser unitarias, los operadores $\pi(g)$ tienen que ser todos unitarios, es decir, su adjunto debe ser igual a su inverso. A este tipo de representaciones del grupo $G$ se las denomina representaciones unitarias. Como las transformaciones unitarias en un espacio vectorial conservan el producto escalar, vectores que eran ortogonales lo siguen siendo después de esa transformación. Esto hace que toda representación reducible se pueda escribir como suma directa de representaciones irreducibles, aunque puede ser difícil encontrar la base en la que ésta se exprese en forma de bloques en la diagonal, como en la matriz anterior.

En este post vamos a estudiar en detalle cómo actúan las rotaciones sobre los sistemas cuánticos y vamos a analizar qué lecciones nuevas nos ha enseñado la mecánica cuántica sobre estas transformaciones. El motivo por el que me he animado a escribir este post es porque, por algún motivo, los profesores que dan clase de mecánica cuántica en la universidad y los autores de la mayoría de los manuales sobre mecánica cuántica consideran que este tema es demasiado sencillo para incluirlo en sus lecciones y confían en que los estudiantes lo aprendan por revelación divina sin que nadie se lo explique.

31 mar 2020

El oscilador armónico para estudiantes de 1º de Bachillerato

El movimiento más importante en física es el movimiento vibratorio armónico simple (mvas), también conocido como oscilador armónico. La mayor parte de sistemas físicos realizan de manera aproximada este movimiento, desde los átomos que hay en una molécula o en un sólido, que se acercan y se alejan continuamente, pasando por cualquier objeto macroscópico elástico. Hasta el movimiento elíptico de un planeta o de un satélite es en cierta forma un movimiento vibratorio de acercamiento y alejamiento del astro en torno al cual orbita, compuesto con un movimiento de rotación. Es más, las mismas partículas elementales son estados de movimiento vibratorio de una serie de campos cuánticos. El oscilador armónico está en física en todas partes. ¿Por qué? Eso es lo que vamos a ver en este post.

24 mar 2020

Nuestros líderes políticos nos han fallado en lo más importante

El día 3 de marzo escribí este tweet. No tiene mérito ninguno. Me costó hacer la "predicción" 10 minutos de mi vida y una hoja de Excel. Cualquiera con conocimientos de matemáticas de bachillerato habría podido hacer la misma estimación burda de "vaca esférica". Y me consta que muchos otros también lo hicieron.


29 feb 2020

La integral de camino de Feynman de una partícula cargada en presencia de un campo electromagnético

En física clásica, sobre toda partícula con carga $q$ y velocidad $\vec{v}$ sometida a un campo electromagnético se ejerce siempre una fuerza (denominada fuerza de Lorentz) de valor $$
\vec{F}=q\vec{E}+q\vec{v}\times \vec{B}
$$ donde $\vec{E}$ es valor del campo eléctrico en el punto donde está situada la partícula y $\vec{B}$ el campo magnético. Esto implica que, en el caso de que la partícula sea no relativista, la ecuación diferencial que describe su movimiento es, si la fuerza de Lorentz es la única que actúa:
$$
m\vec{a}=q\vec{E}+q\vec{v}\times \vec{B}
$$ donde $m$ es la masa de la partícula y $\vec{a}$ es su aceleración.

Esta ecuación de movimiento se puede obtener imponiendo que el camino que tiene que seguir la partícula entre los puntos espaciotemporales $(t_i, \vec{r}_i)$ y $(t_f, \vec{r}_f)$ sea aquel que minimiza la acción
$$
S=\int \left(  \frac{1}{2} m v^2 -q\phi \right)dt+  q\int \vec{A}\cdot d\vec{r} =
$$ $$
=\int \left(  \frac{1}{2} m v^2 -q\phi +q\vec{A}\cdot\vec{v}\right)dt
$$ (donde las integrales se realizan entre esos dos puntos espaciotiemporales) siempre que identifiquemos a $\vec{E}$ y $\vec{B}$ con
$$
\vec{E}=-\vec{\nabla} \phi - \frac{\partial \vec{A}}{\partial t}
$$ $$
\vec{B}=\vec{\nabla} \times \vec{A}
$$ Aquí $\phi$ es el potencial eléctrico y $\vec{A}$ es el potencial vector magnético.

Pero, ¿qué ocurre en mecánica cuántica? ¿Cómo podemos describir en mecánica cuántica el movimiento de una partícula cargada sometida a un campo electromagnético clásico? En mecánica cuántica las probabilidades de cada posible resultado a la hora de realizar una medición se calculan mediante el módulo al cuadrado de la amplitud de probabilidad asociada a ese suceso. Esta amplitud de probabilidad la podemos calcular, o bien haciendo uso de la integral de camino de Feynman, o bien haciendo uso de la ecuación de Schrödinger para calcular cómo es la función de onda de la partícula en el instante de la medición. Hay, por tanto, dos procedimientos que a uno se le ocurren para cuantizar la partícula cargada.

El primero consiste en llevar a cabo la integral de camino de Feynman metiendo en la acción el término descrito anteriormente responsable de la interacción de la partícula cargada con el campo electromagnético. En el cálculo de la amplitud de probabilidad de que una partícula situada en $\vec{r}_i$ en el instante $t_i$ acabe en el punto $\vec{r}_f$ en un instante posterior $t_f$, hay que sumar las amplitudes de probabilidad asociadas a cada camino posible, siendo cada una de éstas un número complejo de módulo 1 y cuya fase viene dada por la acción $S$ dividida entre $\hbar$:
$$
U(\vec{r}_f , t_f ; \vec{r}_i, t_i)=\langle \vec{r}_f | \hat{U}(t_f-t_i) | \vec{r}_i \rangle = \int D\vec{r}(t) e^{i\frac{S}{\hbar}}
$$ donde $\hat{U}$ es el operador unitario de evolución del estado de la partícula. A la función $U(\vec{r}_f , t_f ; \vec{r}_i, t_i)$ se la denomina propagador de la partícula cargada en el espacio de posición.

El segundo procedimiento consiste en hacer uso del hecho de que el hamiltoniano clásico de la partícula cargada es $$
H=\frac{p_F^2}{2m}+ q\phi=\frac{(\vec{p}-q\vec{A})^2}{2m}+ q\phi
$$ (donde $\vec{p}$ es el momento canónico de la partícula cargada, que no coincide con su momento físico $\vec{p}_F=\vec{p}-q\vec{A}$). Así, en mecánica cuántica podemos valernos de esta sustitución minimal $\vec{p} \to \vec{p}-q\vec{A}$ para postular que el hamiltoniano cuántico de la partícula cargada es $$
\hat{H}=\frac{\hat{p}_F^2}{2m}+ q\phi(\hat{\vec{r}},t)=\frac{(\hat{\vec{p}}-q\vec{A}(\hat{\vec{r}},t))^2}{2m}+ q\phi(\hat{\vec{r}},t)
$$ Esto hace que la ecuación de Schrödinger, que nos da la evolución temporal de la función de onda de la partícula cargada, sea $$
i \hbar \, \frac{\partial \psi(\vec{r},t)}{\partial t} = \left[ - \frac{\hbar^2}{2 m} \Delta +
q\phi(\vec{r})
+ \frac{i \hbar q}{m }
\vec{A}(\vec{r}) \cdot \nabla +\lambda \frac{i \hbar q}{m c} \, \left( \nabla \cdot \vec{A}(\vec{r})\right) +
\frac{q^2}{2 m } \vec{A}^2(\vec{r}) \right] \, \psi(\vec{r},t)
$$

¿Nos dan ambos métodos el mismo resultado? El problema es que es posible que no. El término de interacción de la partícula con el campo electromagnético $q\vec{A}(\vec{r})\cdot \vec{v}$ no sólo depende de la posición de la partícula, sino también de su velocidad. Esto nos da lugar a una ambigüedad en cuanto a cómo ordenar los productos de operadores posición y velocidad, ya que en mecánica cuántica la posición $\hat{\vec{r}}$ y la velocidad $\hat{\vec{v}}$ de una partícula no conmutan. Es de sobra conocido que este problema de ordenamiento lo tenemos en el hamiltoniano al sustituir $\vec{r}$ y $\vec{p}$ por los operadores $\hat{\vec{r}}$ y $\hat{\vec{p}}$, ya que éstos no conmutan. Experimentalmente se puede comprobar que el hamiltoniano que nos da el resultado correcto es el de la sustitución minimal $\vec{p} \to \vec{p}-q\vec{A}$. Sin embargo, lo que mucha gente no sabe es que este mismo problema de ordenamiento también lo tenemos en la integral de camino de Feynman. Como hemos explicado en otro post, este problema de ordenamiento queda oculto en la notación simplificada de la integral de camino que acabamos de utilizar. ¿Cuál es el orden adecuado que tenemos que establecer en la integral de camino de Feynman para obtener una evolución de la función de onda que sea equivalente a la de la sustitución minimal? Eso es lo que vamos a ver en este post. Si estás interesado en saber qué le ocurre a la invariancia gauge en mecánica cuántica, es mejor que te leas este otro post, bastante más atractivo a nivel conceptual.

23 feb 2020

La matemática es una ciencia experimental

"La matemática es una parte de la física. La física es una ciencia experimental, una parte de las ciencias naturales. La matemática es la parte de la física en la que los experimentos son baratos".
V.I. Arnold [Arnold1997]

Sí, ha leído usted bien. La matemática es justo lo contrario de lo que a muchos nos han contado en clase de matemáticas. Y el autor de estas afirmaciones no es cualquier charlatán que no sabe nada de matemáticas. Se trata de Vladímir Ígorevich Arnold, uno de los matemáticos más prolíficos de la historia, con contribuciones fundamentales a la teoría de los sistemas dinámicos, la teoría de las catástrofes, la topología, la geometría algebraica, la mecánica clásica y la teoría de la singularidad.

Vladimir Arnold-1.jpg

V.I. Arnold. De Светлана Третьякова - http://www.mccme.ru/arnold/pool/original/VI_Arnold-05.jpg, CC BY-SA 3.0, Enlace

El objetivo de este artículo es analizar en qué acertó Arnold y en qué se equivocó cuando pronunció estas frases. Para ello nos vamos a preguntar si es cierto lo que se nos dice normalmente en las clases de matemáticas de que la certeza que tenemos en los enunciados de las matemáticas es de una categoría superior a la de los enunciados de la física mejor establecida. También nos vamos a preguntar si los enunciados de las matemáticas son de distinta naturaleza que los de la física, como nos dicen normalmente en clase de filosofía. Spoiler: si eres cristiano, musulmán o judío, lo que viene a continuación puede que te vaya a gustar o puede que no. No lo sé. Este artículo no habla de tu religión. No te vas a encontrar en este texto ninguna afirmación que diga que tu dios no existe, ni ninguna burla a tus creencias. En cambio, si eres un matemático escolástico, posiblemente lo que vas a leer a continuación no te va a gustar. Estás a tiempo de cerrar esta pestaña.



¿Estamos seguros de que las verdades matemáticas son ciertas?


¿Estamos realmente en condiciones de afirmar que el enunciado de la conjetura de Goldbach es un enunciado verdadero?
¿Somos capaces de afirmar que lo que dice el teorema fundamental de la aritmética es verdadero?

Cualquier persona que haya sido adoctrinada por la secta de los matemáticos escolásticos no se va a atrever a contestar afirmativamente a la primera pregunta, pero sí a la segunda. Nos dirá que nadie ha sido capaz todavía de probar la conjetura de Goldbach y que no puede descartar que sea falsa, pero que sí tenemos una forma rigurosa de demostrar el teorema fundamental de la aritmética. Ese enunciado es un teorema de la aritmética que se puede probar a partir de los axiomas de Peano.

Pero hay un problema con esto. Aunque esa inferencia esté bien hecha y, por tanto, sea válida, eso no significa que tenga que ser una buena inferencia, ya que los axiomas de Peano podrían ser falsos, o incluso podrían ser inconsistentes. No sirve de nada "demostrar" algo a partir de unos axiomas inconsistentes, ya que de un conjunto de proposiciones inconsistentes entre ellas se puede deducir cualquier cosa. Podríamos probar la conjetura de Goldbach y, al mismo tiempo, su negación. Podríamos probar el teorema fundamental de la aritmética y, al mismo tiempo su negación. Para poder descartar con seguridad este escenario catastrófico para las matemáticas, es necesario, por tanto, demostrar que los axiomas de Peano son consistentes.

Afortunadamente, sí tenemos una demostración de que los axiomas de Peano son consistentes. El problema es que esa demostración parte de los axiomas de la teoría de conjuntos, axiomas más fuertes que los de Peano y, por tanto, más sospechosos de ser inconsistentes.  Es decir, si la aritmética fuera inconsistente, también lo sería la teoría de conjuntos. Es como si ocurre un asesinato, y tenemos un testigo que tiene toda la pinta de ser de confianza, pero no estamos totalmente seguros de que está diciendo la verdad y, para estar seguros de que ese testigo es de fiar, preguntamos a otra persona que conoce a ese testigo si ese testigo es de fiar. Esa segunda persona nos dice que sí, que es de fiar, pero ese testimonio no nos termina de servir porque esa segunda persona parece menos de fiar que la primera.

Para estar totalmente seguros al 100% de que lo que dicen los teoremas de la aritmética es cierto, lo que necesitamos es una prueba de que la aritmética es consistente dentro de la misma aritmética. Desgraciadamente, esto es imposible. El segundo teorema de Gödel nos dice que cualquier sistema axiomático interesante sólo puede probar su propia consistencia si es en sí mismo inconsistente [Gödel1931].

1925 kurt gödel.png
Kurt Gödel. De Desconocido - Familienalbum der Familie Gödel, Scan from Gianbruno Guerrerio, Kurt Gödel - Logische Paradoxien und mathematische Wahrheit, S.24, Dominio público, Enlace

No le queda a usted, querido lector, más remedio que reconocer que no está usted seguro de si la aritmética es consistente o no y, por tanto, no está usted seguro de que el enunciado de un teorema bien establecido de las matemáticas sea verdadero. No tiene usted evidencia de que todos los números naturales se pueden descomponer de forma única en productos de números primos más allá del hecho de que usted piensa que esto es así, pensamiento que, como sugirió Descartes, podría haber sido introducido en su cabeza por un demonio maligno.

Pues no. Claro que estamos seguros de que cualquier número natural, por muy grande que sea, tiene una descomposición única en productos de primos. Y no me refiero sólo al contundente apoyo experimental que tiene el teorema (se cumple para todos los números naturales con los que hemos hecho la comprobación). Estamos seguros de que lo que dice el teorema es cierto porque es un teorema de la aritmética y estamos seguros de que la aritmética es consistente. Pero no porque podamos demostrarlo matemáticamente. El motivo por que el que no hay ningún matemático que piense que la aritmética es inconsistente es de la misma naturaleza que el motivo por el que los físicos de partículas están convencidos de que los electrones y los fotones interaccionan entre ellos de acuerdo a las leyes de la electrodinámica cuántica. Tenemos pruebas experimentales muy sólidas de que esto es así. Desde que éramos muy pequeños hemos sumado a 2 cosas 3 cosas, y hemos comprobado que el resultado es 5 cosas. Cientos de miles de matemáticos a lo largo de la historia han jugado con la aritmética probando teoremas dentro de ella e insertándola también en estructuras más ricas (y ahora también haciendo comprobaciones numéricas altamente no triviales con ordenadores) y lo que han encontrado es una estructura muy rica sin ningún tipo de señal de que haya alguna inconsistencia. Tener a matemáticos "convirtiendo café en teoremas" (sí, la mayoría de los científicos son unos yonquis, pero este problema no es exclusivo de los científicos) para ver si encuentran alguna contradicción en el sistema axiomático y para ver si estos teoremas tienen aplicaciones prácticas es en sí mismo un experimento científico. Probar teoremas a partir de axiomas y postulados es una actividad que se incluye dentro de la tarea de hacer experimentos, como hacen los demás científicos. En última instancia, la evidencia que tenemos de que los enunciados de la aritmética, y los del resto de las matemáticas, son verdaderos es experimental. La aritmética, como el resto de las matemáticas, es una teoría perteneciente al campo de la ciencia experimental, probablemente la más sólida y que más tests experimentales ha pasado de todas las teorías que tenemos.

Merece la pena leer lo que el lógico e historiador de la ciencia P. H. Nidditch escribió acerca de la crisis fundacional de la matemática que tuvo lugar a principios del siglo XX, tras los descubrimientos de antinomias como la de Russell o la de Burali-Forti:

"El temor a que los actuales sistemas de la matemática pudieran ser inconsistentes ha sido el principal responsable de que se produzca un cambio en la dirección de la Lógica Matemática hacia la metamatemática, con lo objetivo de liberarse de la penosa duda de si las matemáticas están o no descansando sobre una base sólida. Una razón especial para preocuparse al respecto es que la teoría de conjuntos es utilizada en todas las partes de las matemáticas; por tanto, si la teoría de conjuntos está mal de alguna manera, todas las demás partes se verán conducidas a error. Más aún, dejando a un lado la teoría de conjuntos, ¿no podría ser que súbitamente se realizaran descubrimientos de teoremas contradictorios en álgebra, geometría o en análisis matemático, como ocurrió con los descubrimientos de Burali-Forti y Russell? Ya ha quedado demostrado que el sentido común no es un faro lo bastante poderoso como para mantenernos a salvo del riesgo de vernos zozobrar contra los escarpados salientes de la lógica. Para estar, con buena razón, seguros de que los sistemas matemáticos son todos correctos, es necesario examinar con cuidado los detalles de sus estructuras, y dar demostraciones de que, con esas estructuras, la consistencia está presente.

Esta última preocupación, junto con el temor y la obsesión de la que hemos hablado en estas líneas, han sido y son comunes entre los que investigan en lo que se denomina "los fundamentos de la matemática", esto es, sistemas axiomáticos de lógica-conjuntos-y-aritmética. Sin embargo, algunas personas, con las cuales concuerda quien escribe este libro, tienen una opinión diferente. Estas personas dirían que el bienestar de la matemática no depende de sus "fundamentos". El valor de la matemática está en los frutos de sus ramas más que en sus "raíces"; en el gran número de sorprendentes e interesantes teoremas de álgebra, análisis, geometría, topología, teoría de números y teoría de probabilidades, más que en los intentos de obtener un fragmento de la aritmética o la topología como un mero desarrollo de la lógica. Dirían que el nombre "fundamentos de la matemática" es un nombre desafortunado, en la medida en que transmite a la mente una imagen errónea de las relaciones entre la lógica y la matemática superior. La matemática superior no se fundamenta en la lógica ni está constituida por la lógica. Dirían que las perturbaciones en teoría de conjuntos eran debidas a los singularísimos ejemplos de conjuntos aducidos, y que semenjantes conjuntos no eran usados en la matemática superior. Y añadirían que, si bien es deseable tener certeza de la consistencia, supuesto que nos sea posible llegar a un conocimiento de esa índole, no obstante, un conocimiento de la teoría matemática que sea sólo probable es generalmente suficiente, y el único tipo de conocimiento de la consistencia que, de hecho, generalmente se tiene. Y alegarán que un tal conocimiento probable encuentra un buen soporte en el hecho de que se haya trabajado tanto en las teorías de la matemática y no hayan salido a la luz teoremas contradictorios" [Nidditch1962].

También es necesario aclarar que no es cierto que el trabajo de los matemáticos profesionales sea simplemente "convertir café en teoremas". Como afirma Terence Tao, al contrario que los estudiantes universitarios, los matemáticos profesionales "ya no necesitan el formalismo para realizar razonamientos matemáticos de alto nivel, y llevan a cabo su tarea en una gran parte mediante su intuición". Esto se debe a que "el objetivo del rigor matemático no es destruir toda intuición, sino destruir la mala intuición al mismo tiempo que se clarifica y se potencia la buena intuición" [Tao2009]. Nótese que "destruir la mala intuición al mismo tiempo que se clarifica y se potencia la buena intuición" no deja de ser un ejercicio similar a la actualización bayesiana de los grados de confianza que se lleva a cabo en la ciencias naturales.

En realidad, la situación epistemológica en la que se encuentran las matemáticas es similar a la del resto de las ciencias naturales.  La metodología que se utiliza en matemáticas no es más rigurosa que la del resto de ciencias por una cuestión de naturaleza, sino de grado. ¿Cuál es en realidad esta metodología? La explicación que da Arnold es la siguiente:

"El esquema de construcción de una teoría matemática es exactamente el mismo que el de cualquier otra de las ciencias naturales. Primero prestamos atención a objetos y hacemos observaciones en casos especiales. Luego probamos y encontramos los límites de aplicación de nuestras observaciones, buscamos contraejemplos que nos prevengan de extender injustificadamente nuestras observaciones hacia un rango demasiado extenso de eventos (por ejemplo, el número de particiones de números impares consecutivos 1, 3, 5, 7, 9 en un número impar de sumandos nos da la secuencia 1, 2, 4, 8, 16, pero a continuación aparece el 29).

Como resultado, formulamos el descubrimiento empírico que acabamos de hacer (por ejemplo, la conjetura de Fermat o la conjetura de Poincaré) de forma tan clara como sea posible. Después de esto, es cuando viene la difícil fase de comprobar cómo de fiable son nuestras conclusiones.

Para este punto, una técnica especial ha sido desarrollada en matemáticas. Esta técnica, cuando se aplica al mundo real, es algunas veces útil, pero puede a veces también conducir al autoengaño. A esta técnica se la denomina modelización. Al construir un modelo, hay que hacer la siguiente idealización: ciertos hechos que son sólo conocidos con un cierto grado de probabilidad o con un cierto grado de exactitud son considerados como "absolutamente" correctos y son aceptados como "axiomas". El sentido de esta "absolutez" descansa precisamente en el hecho de que nos damos permiso a nosotros mismos para utilizar estos "hechos" de acuerdo con las reglas de la lógica formal, en un proceso en el que asignamos la categoría de "teorema" a todo lo que de ellos se puede deducir. 

Es obvio que en cualquier actividad de la vida real es imposible confiar completamente en tales deducciones. El motivo es que, por lo menos, los parámetros que caracterizan los fenómenos estudiados nunca son conocidos completamente de forma exacta y un pequeño cambio en los parámetros (por ejemplo, en las condiciones iniciales de un proceso) puede cambiar el resultado totalmente. Por ejemplo, este es el motivo por el que una predicción del tiempo meteorológico fiable a largo plazo es imposible y seguirá siendo imposible por mucho que mejoremos los ordenadores y los dispositivos que registran las condiciones iniciales. De la misma manera, un pequeño cambio en los axiomas (de los cuales no podemos estar por completo seguros) es capaz, en general, de conducir a conclusiones completamente distintas a aquellas que se obtienen a partir de los teoremas que se han podido deducir partiendo de los axiomas aceptados. Cuanto más larga y sofisticada sea la cadena de deducciones ("demostraciones"), menos fiable es el resultado final. Los modelos complejos pocas veces son útiles (salvo para aquellos que escriben sus tesis).

La técnica matemática de la modelización consiste en ignorar este problema y hablar sobre tu modelo deductivo como si coincidiese con la realidad. Al hecho de que este camino, que es obviamente incorrecto desde el punto de vista de las demás ciencias naturales, frecuentemente conduce a resultados útiles en física, se le denomina "la inconcebible efectividad de las matemáticas en las ciencias naturales" (o el "principio de Wigner").
[...]
"El sutil veneno de la formación en matemáticas" (en palabras de Klein) para un físico consiste precisamente en el hecho de que el modelo, considerado como "absoluto", se separa de la realidad y ya no se puede comparar con ella. Aquí puede verse un ejemplo simple: los matemáticos nos enseñan que la solución a la ecuación de Maltus $$
\frac{dx}{dt}=x
$$ queda completamente determinada por las condiciones iniciales (lo que es equivalente a decir que las correspondientes curvas integrales en el plano (t,x) no intersecan entre ellas). Pero esta conclusión del modelo matemático tiene poca relevancia en lo que respecta a la realidad. Los experimentos con ordenadores nos demuestran que todas estas curvas integrales tienen puntos en común en el semieje negativo temporal. En efecto, las curvas con, por ejemplo, las condiciones iniciales $x(0)=0$ y $x(0)=1$ prácticamente intersecan en $t=-10$, y en $t=-100$ ni siquiera cabe un átomo entre ellas. Las propiedades del espacio a esas distancias tan pequeñas ya no se pueden describir mediante la geometría euclídea. La aplicación del teorema de unicidad en esta situación obviamente está fuera del rango de validez del modelo. Esto se tiene que respetar en las aplicaciones prácticas del modelo ya que, si no, nos podemos encontrar con problemas serios.

Me gustaría remarcar que, sin embargo, este mismo teorema de unicidad explica por qué hay que hacer manualmente la fase de acercamiento en el proceso de amarre de un barco: en la conducción, si la velocidad de acercamiento hubiese sido definida como una función lineal suave de la distancia, el proceso de amarre habría requerido un periodo infinito de tiempo. [...] Este problema tuvo que ser encarado de forma seria al aterrizar aparatos en la Luna y en Marte y en los acoplos de las estaciones espaciales - aquí el teorema de unicidad juega en nuestra contra.

Desafortunadamente, en los modernos libros de texto de matemáticas no es posible encontrar, ni ninguno de estos ejemplo, ni ninguna discusión acerca de los peligros de fechitizar los teoremas, ni siquiera en los mejores libros. De hecho, incluso tengo la impresión de que los matemáticos escolásticos (aquellos que saben poco de física) creen que la matemática axiomática es distinta de la modelización que se lleva a cabo habitualmente en las ciencias naturales. Ésta última siempre requiere un posterior control de las deducciones mediante experimentos, pero creen que la matemática axiomática no.

Incluso aunque nos olvidemos del carácter relativo de los axiomas iniciales, no se puede ignorar la inevitabilidad de que se produzcan errores lógicos en las inferencias largas [...] con computadoras [...] y matemáticos después de diez páginas de fórmulas [...]. La tecnología necesaria para combatir tales errores es precisamente el mismo control externo que llevan a cabo los experimentadores en cualquier ciencia experimental y se debería enseñar desde el principio a todos los estudiantes en las escuelas.

Los intentos de crear unas matemáticas deductivo-axiomáticas "puras" han conducido al abandono del esquema que se usa en física (observación, modelo, investigación del modelo, conclusiones y comprobaciones experimentales) y sus sustitución por el esquema: definición, teorema, demostración. Es imposible entender una definición si no ha sido bien motivada pero esto no les para los pies a los algebristas-axiomatizadores criminales."

Todas estas frases forman parte del discurso que dio Arnold en el Palais de Découverte en Paris en 1997, en el que denuncia el daño que causaron esos matemáticos escolásticos al ocultar a los jóvenes que los objetos matemáticos, además de tener un significado algebraico y geométrico, también tienen un significado físico, cuyo conocimiento da al matemático una intuición que le sirve de potente faro, y que la modelización en matemáticas también necesita de confirmación experimental.


¿Son los enunciados de las matemáticas de distinta naturaleza que los de la física?


Ya hemos visto que la metodología que se utiliza en matemáticas no es de distinta naturaleza que la de la física. Pero, ¿qué ocurre con sus enunciados? En toda la tradición filosófica occidental siempre se ha considerado que los enunciados de las matemáticas (analíticos) poseen una naturaleza distinta a los de la física (que son sintéticos). Por ejemplo, La distinción kantiana entre verdades analíticas y verdades sintéticas fue anticipada por la distinción de Hume entre relaciones de ideas y cuestiones de hecho, y por la distinción leibniziana entre verdades de razón y verdades de hecho. Leibniz decía de las verdades de razón que son verdaderas en todos los mundos posibles.

Sin embargo, en 1951 el filósofo y lógico matemático norteamericano W. V. O. Quine, en el que se considera el artículo más importante del siglo XX en filosofía de la ciencia, enterró definitivamente de la filosofía la distinción entre verdades analíticas (verdades lógico-matemáticas, independientes de los hechos) y verdades sintéticas (basadas en los hechos) [Quine1951].
Wvq-passport-1975-400dpi-crop
W.V.O. Quine
By (Photo booth?)Stampit at English Wikipedia. [CC BY-SA 2.5-2.0-1.0GFDL or CC-BY-SA-3.0], via Wikimedia Commons

En este artículo Quine demuestra que todos los argumentos posibles que se puede proponer para intentar demostrar que son analíticos los enunciados del tipo "Ningún número de jugadores en un equipo que sea número compuesto es un número primo" son en realidad circulares. Podríamos decir que el enunciado es analítico porque, usando "compuesto" como sinónimo de "no primo", somos capaces de convertirlo en una tautología (descartemos los equipos de 1 jugador, ya que el 1 no se considera ni primo ni compuesto). Pero Quine demuestra que el concepto de sinonimia está tan necesitado de explicación como el de analiticidad, ya que todos los intentos de caracterizar conceptualmente la sinonimia acaban dependiendo de sí mismos o del concepto analiticidad.

Por ejemplo, un diccionario que traduzca "compuesto" por "no primo" no puede resolver el problema, porque los diccionarios son informes que recogen las sinonimias conocidas y, por tanto, dependen de la noción previa de sinonimia.

También podríamos explicar la sinonimia en términos de "intercambiabilidad": "compuesto" puede cambiarse por "no primo" en todas los enunciados sin que por ello cambie el valor de verdad de cada enunciado. Pero Quine demuestra que no es posible hacer esto de forma general garantizando que el motivo por el que el enunciado no ha cambiado su valor de verdad es por su significado y no por casualidad. Por ejemplo, podemos cambiar en todas los enunciados "criatura con corazón" por "criatura con riñón", y no por ello cambiaría su valor de verdad, ya que es un hecho experimental que todas las criaturas con corazón también tienen riñón, pero, entonces, el significado de los enunciados cambiaría, y no podemos decir que "Toda criatura con riñón es una criatura con corazón" sea precisamente un enunciado analítico. Podríamos añadir el adverbio modal "Necesariamente", con lo que sí quedaría claro que "Necesariamente, ningún compuesto es primo" es analítico, mientras que "Necesariamente, toda criatura con riñón es criatura con corazón" no lo es porque, al añadir "Necesariamente" se vuelve falso. Pero la noción de necesidad descansa sobre la de analiticidad, con lo que el argumento sería circular.

Otra definición posible sería decir que un enunciado analítico es aquel que está en el caso extremo de que no es necesaria una verificación empírica del mismo, porque queda confirmado independientemente de lo que salga en los experimentos. Pero para eso hace falta aceptar la teoría de la verificación del significado que dice que sólo los enunciados que son empíricamente verificables tienen significado, es decir, habría que aceptar el postulado reduccionista del positivismo. Pero el reduccionismo presenta un problema tan intratable como el de la analiticidad, ya que para llevar a cabo la empresa reduccionista es necesario especificar cómo traducir los datos sensibles a los enunciados de nuestro discurso, como intentó sin éxito Carnap. Carnap fracasó en esta empresa porque no tuvo más remedio que introducir notación lógica, de teoría de conjuntos y de localización en el espacio-tiempo, volviendo de nuevo a la analiticidad que pretendíamos definir.

Ante el fracaso de los positivistas en dar caracterizaciones no circulares de analiticidad y reduccionismo, Quine concluye que ambas nociones no son más que dogmas metafísicos de fe. En vez del reduccionismo, Quine propone que es la totalidad del conocimiento científico lo que es verificable, y no cada enunciado individualmente, porque prácticamente todos los enunciados en ciencia están interconectados. Al contrario de lo que decía Popper, no son, por tanto, los enunciados los que son falsables, sino la totalidad del conocimiento científico como un todo. Ante una evidencia experimental en contra habrá varias posibilidades de modificar toda la red de teorías e hipótesis para adaptarla a ésta. Un enunciado que es falso en una de estas posibilidades puede ser verdadero en otra. Estas ideas constituyen la denominada tesis de Duhem-Quine.

Por supuesto, hay enunciados, los que antes llamábamos "analíticos", que son menos susceptibles que otros, los que antes llamábamos "sintéticos", de ser modificados ante un resultado experimental en contra, pero, como señala Quine, la diferencia entre los enunciados "analíticos" de las matemáticas y los "sintéticos" de la física no es de naturaleza sino de grado: los resultados experimentales nos dan las condiciones de frontera que tiene que satisfacer la red que constituye todo el conocimiento científico. Los juicios que llamamos "sintéticos" están más cerca de esa frontera, con lo que, cuando hay un cambio en la frontera, al ajustar la red para adaptarse a ese cambio es más probable que los acabemos tocando, pero no tiene sentido hablar del contenido empírico de un enunciado concreto. Como afirmó Arnold "La identidad de Jacobi (que fuerza a que las tres alturas de todo triángulo se crucen en un punto) es un hecho experimental de la misma naturaleza que el hecho de que la Tierra es redonda, pero que se puede descubrir con menos dinero y esfuerzo" [Arnold1997]. A su vez, las leyes de la lógica dan las relaciones entre los distintos enunciados, pero ellas mismas también son enunciados del sistema y, por tanto, tampoco puede decirse que sean puramente analíticas, que no dependan de la experiencia.

Alguno puede pensar que es imposible que los enunciados de la matemática sean de la misma naturaleza que la de las ciencias  que habitualmente se llaman "experimentales", ya que los objetos con los que trabaja la matemática son objetos abstractos, que entran dentro de otra categoría. Sin embargo, ya hemos visto en un artículo anterior que los objetos matemáticos tienen un triple significado: algebraico, geométrico y físico, y que uno no puede abarcarlos completamente si se olvida de su significado físico. Desgraciadamente, ha habido una escuela de pensamiento dominante durante la segunda mitad del siglo XX entre los matemáticos que ha tenido consecuencias nefastas para la enseñanza de las matemáticas y para la investigación, que ha actuado bajo el perverso objetivo de ocultar a los jóvenes el significado físico de los objetos matemáticos. Se ha intentado forzar una separación entre matemáticas y física teórica aislando a ambas comunidades de investigadores bajo la falsa excusa de que estudian disciplinas de distinta naturaleza. La realidad es que no lo son. Los objetivos y metodologías de ambos grupos sólo difieren en grado, pero esta realidad queda oscurecida por el hecho de que ambos colectivos utilizan un lenguaje muy distinto para referirse a los mismos objetos.

Afortunadamente, es difícil mantener una mentira de tal magnitud durante mucho tiempo, y esta barrera construida artificialmente entre físicos teóricos y  matemáticos, debido a la diferente formación y diferente lenguaje que utilizan, está empezando a caer. Como explico en ese articulo anterior, en las últimas décadas las nuevas ideas en teoría cuántica de campos y teoría de cuerdas están revolucionando por completo las matemáticas. Ejemplos exitosos de la aplicación de conceptos físicos para resolver problemas matemáticos y crear nuevas ramas de la matemática, como mirror symmetry, la teoría de nudos o el monstrous moonshine, están obligando a ambos colectivos a entenderse de nuevo, haciendo ver a los matemáticos que despreciar el significado físico de los objetos con los que trabajan conlleva una visión estrecha de su disciplina y terminando de destruir el complejo de inferioridad que se había inoculado a muchos físicos al hacerles creer la mentira de que la naturaleza de las matemáticas se encuentra en un estatus superior en "pureza" a la de la física.


Conclusión


Ni la metodología que se usa en matemáticas ni los enunciados con los que ésta trabaja difieren en naturaleza con lo que se hace en física. Arnold tenía razón. La matemática es una ciencia experimental y, además, ni siquiera se puede establecer una frontera clara entre ésta y la física teórica.

Nos vemos, por tanto, obligados a sustituir esta popular viñeta en las redes sociales:
por esta otra:

donde en el grupo "dogmatism" podemos englobar a los matemáticos y lógicos escolásticos que creen que sus sistemas axiomáticos están a salvo de necesitar confirmación experimental. Los matemáticos y lógicos de verdad, como Arnold, Tao, Gödel, Quine, Nidditch, etc, formarían parte, junto con los físicos, de la parte más pura de los que practican el pensamiento racional. Y todo esto, por supuesto, sin menospreciar la importancia de las otras ciencias que, aunque fundamentadas en la que tienen a su derecha, tienen todo el derecho a poseer la categoría de ciencia por sus propias metodologías y por la complejidad y singularidad de sus metodologías y de los sistemas que estudian.

Eso sí, no podemos terminar este artículo sin señalar un error importante en la afirmación de Arnold con la que hemos comenzado este texto. Los experimentos en matemáticas no son baratos, y el motivo no es sólo que las supercomputadoras cuestan mucho dinero. Hay que pagar bien a los matemáticos y a los físicos teóricos para que desarrollen su trabajo en condiciones dignas, dedicando no más de 40 horas a la semana, con un sueldo adecuado y con una estabilidad laboral, tras leer la tesis, suficiente como para que nadie tenga que elegir entre asumir sus responsabilidades con sus hijos y con los ancianos de su familia o seguir con la carrera investigadora. Eso no se está haciendo, y la consecuencia es que se está expulsando masivamente de la academia a las mujeres en mitad de su carrera científica (y también a los hombres que sí asumen esas responsabilidades familiares), mientras se está dando una ventaja que no merecen a los hombres más irresponsables. Si acabáramos con esta situación de explotación y el trabajo de investigador en la etapa de postdoc fuera compatible con la vida, las matemáticas ya no serían tan baratas. Arnold no deja de ser un señoro del siglo pasado, capaz de ver algunas cosas con una profundidad alucinante, mientras no se daba cuenta de lo que sucedía delante de sus narices.


Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.


Referencias bibliográficas

  • Arnold V.I. (1998) "On teaching mathematics". Uspekhi Mat. Nauk 53 (1998), no. 1, 229-234.
  • Gödel, K. (1992) [1931] On Formally Undecidable Propositions of Principia Mathematica and Related Systems. New York: Dover, 1992
  • Quine W.V.O. (1951) "Two dogmas of empirism", Philosophical Review 60: 20–43.
  • Nidditch P.H. (1962). The development of mathematical logic. Monographs in modern logic. Routledge & Kegan Paul, London, and The Free Press of Glencoe, New York.
  • Tao T. (2009). "There’s more to mathematics than rigour and proofs". What's new.


17 feb 2020

¿Son el álgebra y la geometría "las dos caras de las matemáticas"?

Frans Hals - Portret van René Descartes.jpg

"[...] de esta manera tomaría lo mejor del análisis geométrico y del algebra y corregiría los defectos del uno por medio de la otra. Y, en efecto, me atrevo a decir que la exacta observación de los pocos preceptos por mí elegidos me dio tal facilidad para resolver todas las cuestiones de que tratan esas dos ciencias que en dos o tres meses que empleé en examinarlas [...] no solamente resolví muchas cuestiones que en otro tiempo había juzgado muy difíciles, sino que me pareció también, al final, que podía determinar por qué medios y hasta qué punto era posible resolver las que yo ignoraba". Descartes. Discurso del método. Segunda parte.

Tenía motivos Descartes para presumir así. En los años anteriores a escribir estas palabras, y subido a hombros de gigantes como Euclides, Apolonio, Oresme, Viète y Fermat, había conseguido crear un sistema de referencia mediante coordenadas en el plano que le permitió entender los objetos geométicos por medio de expresiones algebraicas. Antes de Descartes y Fermat, la única interpretación geométrica que había de las expresiones algebraicas como $x$, $x^2$ o $x^3$, era, respectivamente, la de una longitud, un área y un volumen. Sin embargo, lo que Descartes y Fermat, más o menos en la misma época y de forma independiente, acababan de crear, era algo mucho más potente: un puente entre geometría y álgebra según el cual los polinomios de primer grado son rectas, los de segundo grado curvas cónicas y los de tercer grado curvas cúbicas [Gonzalez2003]. En palabras de Lagrange, "Mientras el Álgebra y la Geometría han estado separadas, su progreso ha sido lento y sus aplicaciones limitadas; pero cuando estas dos ciencias han sido vinculadas, se han prestado su fuerza mutuamente y han caminado juntas hacia la perfección".

En este post vamos a ver con algunos ejemplos sencillos por qué el establecimiento de este puente entre álgebra y geometría ha constituido uno de los hitos más importantes en la historia de la humanidad. Y vamos a descubrir que las matemáticas no sólo tienen dos caras: álgebra y geometría, sino que hay una tercera cara que, desgraciadamente, se suele ignorar sistemáticamente en las clases de matemáticas que se dan tanto en secundaria como en la universidad.



Algebra y geometría de las transformaciones de funciones


Supongamos que tenemos una función $y=f(x)$ que tiene un máximo en $x=4$ de valor $y=5,5$:

Si multiplicamos esta función por 2, entonces ahora todos los valores de $y$ van a ser el doble de grandes. El máximo estará en en el mismo sitio, pero ahora el valor de ese máximo será el doble de alto. La gráfica de la función va a ser la misma, pero estirada en el eje $y$ hasta el doble de tamaño, sin que haya ningún tipo de deformación en el eje $x$:

Si lo que hacemos, en cambio, es dividir entre 2, entonces todos los valores de $y$ valdrán la mitad. La gráfica se contrae hasta un tamaño la mitad en el eje $y$ sin que haya deformación en el eje $x$:

Pero, ¿qué pasa si multiplicamos por 2, en vez de por fuera, por dentro de la función? La primera respuesta que suelen dar muchos estudiantes de bachillerato es que la gráfica se estira como antes, pero en lugar de en el eje $y$, lo hace en el eje $x$. Sin embargo, la respuesta correcta es justo la contraria. La gráfica no se estira en el eje $x$, se contrae. La regla ahora es AL REVÉS:
Una forma de verlo es pensar en el máximo de la función. Éste estaba en $x=4$ y tomaba un valor $y=f(4)=5,5$. Pero si lo que tenemos ahora es $y=f(2x)$, entonces para poder conseguir ese máximo de valor $f(4)=5,5$ necesitamos que $x$ valga 2, es decir, la mitad. El máximo está ahora a la mitad de distancia de $x=0$ de lo que estaba antes.

Si lo que queremos es expandir la gráfica de la función en un factor 2, lo que hay que hacer es dividir entre dos por dentro de la función:

Algo parecido ocurre con las sumas. Si sumamos a la función el número 2 por fuera, entonces ésta tomará los mismos valores que antes, pero subidos 2 unidades hacia arriba:

O bajados dos unidades si estamos restando:

Pero para que la gráfica se desplace 2 unidades en el eje $x$ en la dirección creciente, lo que hay que hacer no es sumar por dentro, sino restar por dentro. De nuevo, POR DENTRO LA REGLA ES AL REVÉS QUE POR FUERA:
De nuevo, para verlo claramente es mejor fijarse en el máximo. Ahora, para conseguir $f(4)$ necesitamos que $x$ valga 6.

Y si sumamos 2 unidades por dentro, la función se desplaza en el eje $x$ en el sentido negativo:

Si introducimos un signo menos, que es equivalente a multiplicar por $-1$, por fuera la función queda reflejada respecto del eje $x$, ya que todos los valores que toma son los anteriores, pero cambiados de signo.

Y si multiplicamos por $-1$ por dentro, ahora la función se refleja respecto del eje $y$:
ya que para conseguir $f(4)$ necesitamos que $x$ valga $-4$. Aquí la regla también está al revés, pero la transformación de multiplicar por $-1$ es su propia inversa, y por eso parece que es la misma regla.


La geometría analítica


Las reglas de transformación de funciones que acabamos de ver, junto con el conocimiento de la forma geométrica que adoptan las gráficas de las funciones más sencillas:
nos proporcionan una imagen mental relativamente inmediata de la gráfica de muchas de las funciones que utilizamos.

Y, más apasionante aún, ¡esto nos permiten visualizar cuántas soluciones tiene un sistema de ecuaciones dado y cuáles son! ¿Por qué es esto así? Porque los puntos de la gráfica de la función $f(x)$ son aquellos que cumplen una propiedad (que $y=f(x)$). Como escribió D'Alembert, "Descartes es el primero que haya pensado en expresar las líneas curvas por medio de ecuaciones. Esta idea sobre la que se funda la aplicación del Álgebra a la Geometría ha sido muy feliz y fecunda. Está claro que al resolver la ecuación de una curva se obtiene uno o varios valores de la ordenada $y$ para una misma abscisa $x$, y que, en consecuencia, una curva trazada no es otra cosa que la solución geométrica de un problema indeterminado, es decir, que tiene una infinidad de soluciones: es lo que los antiguos llamaban lugar geométrico. Así pues, aunque ellos no pudieron tener la idea de expresar las curvas por medio de ecuaciones, habían visto, sin embargo, que las curvas geométricas no eran otra cosa que el lugar, es decir la sucesión de una infinidad de puntos que satisfacían a la misma cuestión. Por ejemplo, que el círculo era el lugar de todos los puntos que describen los vértices de los ángulos rectos que se pueden formar sobre una misma base dada tomada como diámetro del círculo, y así para las demás curvas."

Buscar la solución al sistema de ecuaciones $$
y=f(x)
$$ $$
y=g(x)
$$ es, por tanto, equivalente a buscar aquellos puntos que satisfagan simultáneamente ambas propiedades, es decir, ¡aquellos puntos en los que las dos gráficas se cortan!

En el ejemplo más sencillo, aplicando estas reglas a la función identidad $y=x$ (la bisectriz), se obtiene inmediatamente la gráfica de cualquier polinomio de grado 1:
Es muy importante que los estudiantes de ESO, cuando estudian la ecuación de la recta $y=mx+n$, aprendan a entender tanto el significado algebraico como el geométrico de cada uno de los elementos de esta ecuación. Por ejemplo, el coeficiente $n$ es:
  • algebraicamente, el coeficiente que no va multiplicado por $x$ en la ecuación o, en el lenguaje de las transformaciones que hemos descrito antes, el número que le sumamos a la función por fuera.
  • geométricamente, la "altura" $y$ a la que la recta corta al eje vertical (la ordenada en el origen), la distancia que hemos levantado verticalmente la función.
Por otro lado, el coeficiente $m$ es:
  • algebraicamente, el coeficiente que multiplica a $x$, la cantidad con la que hemos multiplicado a la función por dentro.
  • geométricamente, la pendiente de la recta, el factor con el que hemos comprimido la gráfica de la recta en el eje horizontal.

Si hacemos sistemas de ecuaciones con estos polinomios de primer grado, los estudiantes de 3º de ESO pueden saber qué soluciones hay y cuánto valen de forma intuitiva simplemente pintando las correspondientes rectas en su mente o en el papel,
y viendo dónde se cortan.
Cuando los estudiantes aprenden a hacer esto, de pronto la tarea de averiguar cuántas soluciones tiene un sistema de ecuaciones se vuelve una tarea mucho más sencilla, a veces casi inmediata.

Por ejemplo, podemos aplicar este método para comprobar que la identidad de Jacobi $$
\vec{a} \times ( \vec{b} \times \vec{c}) + \vec{c} \times ( \vec{a} \times \vec{b}) + \vec{b} \times ( \vec{c} \times \vec{a})=\vec{0}
$$ es equivalente al teorema geométrico que afirma que las tres alturas de todo triángulo se cruzan en un mismo punto:
Es una pena que los libros de matemáticas de bachillerato no suelan enseñar esta relación entre el álgebra de los vectores en tres dimensiones y la geometría euclídea. El lector puede encontrar una demostración de esta equivalencia en este enlace.


Con los sencillos ejemplos que acabamos de mencionar, está claro que esta conexión entre álgebra y geometría, que se estableció al dotar de coordenadas al plano, nos permite asignar un nuevo significado a problemas como establecer relaciones entre vectores, la resolución de ecuaciones y sistemas de ecuaciones o encontrar posiciones relativas, entre otros. Una vez somos capaces de ver ese doble significado, tenemos en nuestras manos poder reformular problemas en geometría como problemas equivalentes en álgebra, y viceversa. Los métodos de cualquiera de las dos áreas se pueden usar para resolver problemas en la otra. Este es el motivo por el que, desde el siglo XVII, la geometría sintética construida por Euclides dejó de ser la protagonista en el quehacer científico, dando paso a la recién nacida geometría analítica.

Tuve una compañera (matemática), que solía decir que "el álgebra es ciega", pero "la geometría es manca". Considerarlas por separado, como ocurría antes de Descartes, nos limita mucho las cosas que podemos hacer. Sin embargo, juntas, parecen no tener límite. ¿Verdad?

La realidad es que abordar los problemas matemáticos combinando ambos puntos de vista, el algebraico y el geométrico, aunque nos permite eliminar muchas limitaciones, no nos libra de todas. Por ejemplo, puede ocurrir que delante de ti se esté cometiendo acoso y discriminación contra otras persona por motivo de su orientación sexual o su ideología y que, si eres ciega, ni siquiera te des cuenta. También puede ocurrir que, no siendo ciega, no hagas nada para evitar esa injusticia por ser manca, por estar atada de pies y manos en esa situación. Pero no ser ni ciega ni manca no garantiza que vayas a hacer algo para evitar esos acosos y discriminaciones, porque puede ocurrir que seas una persona tan intolerante como los que cometen esos abusos y que acabes incluso participando en ellos. Análogamente, la matemática, con este puente entre álgebra  y geometría, puede no ser suficiente para resolver muchos problemas. Hace falta un tercer elemento. ¿Eres capaz de ver ya cuál es?


El triple significado de las ecuaciones de movimiento


Si asignamos a la variable independiente $x$ el significado físico de ser el instante de tiempo $t$ en el que ocurren los sucesos, y consideramos que la variable dependiente $y$ es en realidad la coordenada espacial $x$ en la que ocurren estos sucesos, entonces toda función continua $y=f(x)$, que ahora se escribe $x=f(t)$, se puede interpretar como la función que nos da la posición de un objeto que realiza un movimiento rectilíneo en cada instante de tiempo. Es decir, la ecuación $x=f(t)$ es la ecuación de movimiento de ese objeto. Esta idea no es ni mucho menos posterior a Descartes, sino que fue introducida por Nicole Oresme en el siglo XIV.
  • Algebraicamente, que una función sea continua significa que el límite de la función en cualquier punto coincide con el valor de la función en ese punto.
  • Geométricamente, que se pueda dibujar su gráfica sin levantar el lápiz del papel.
  • Y físicamente, que el objeto no pueda desaparecer de donde está e, instantáneamente, aparecer en otro punto del espacio. 


Si el movimiento rectilíneo se produce físicamente a velocidad constante (Movimiento rectilíneo uniforme, MRU), entonces la gráfica espacio-tiempo correspondiente es geométricamente una línea recta, es decir la función $f(t)$ es algebraicamente un polinomio de primer grado.
Es muy importante que los estudiantes de ESO, cuando estudian la ecuación de la recta $x=vt+x_o$, aprendan a entender, además del significado algebraico y geométrico de cada uno de los elementos de esta ecuación, también el significado físico. El coeficiente $x_o$ es:
  • algebraicamente, el coeficiente que no va multiplicado por $t$ en la ecuación o, en el lenguaje de las transformaciones que hemos descrito antes, en número que le sumamos a la función por fuera.
  • geométricamente, la "altura" $x$ a la que la recta corta al eje vertical (la ordenada en el origen), la distancia que hemos levantado verticalmente la función.
  • físicamente, la posición del objeto en el instante inicial $t=0$.
Por otro lado, el coeficiente $v$ es:
  • algebraicamente, el coeficiente que multiplica a $x$, la cantidad con la que hemos multiplicado a la función por dentro.
  • geométricamente, la pendiente de la recta, el factor con el que hemos comprimido la gráfica de la recta en el eje horizontal.
  • físicamente, la velocidad del objeto.

Si la función no es un polinomio de primer grado, geométricamente la pendiente de la gráfica varía. Algebraicamente, eso significa que la derivada de la función es distinta para cada valor de $t$, y físicamente, eso significa que el objeto va cambiando su velocidad a medida que transcurre el tiempo. Si, por ejemplo, la velocidad va variando uniformemente con el tiempo (Movimiento Rectilíneo Uniformemente Acelerado, MRUA), entonces lo que algebraicamente es la segunda derivada, que físicamente es la aceleración $a=f^{\prime\prime}(t)$, es constante. Esto significa geométricamente que la gráfica de $a$ frente a $t$ es una recta horizontal. Entonces, la primera derivada, la velocidad $v=f^\prime(t)$, es algebraicamente un polinomio de primer grado y geométricamente una recta cuya pendiente es $a$ y ordenada en el origen es la velocidad inicial $v_o$. La ecuación de movimiento $x=f(t)$ se obtiene integrando la ecuación de la velocidad, es algebraicamente un polinomio de segundo grado y geométricamente una parábola.

El punto que geométricamente es el vértice de la parábola es algebraicamente el punto donde la derivada se anula, y físicamente el evento espaciotemporal en el que el objeto posee velocidad cero, porque su velocidad está cambiando de sentido. Cuando tenía 14 años, me enseñaron a calcular dónde estaba el vértice de una parábola mediante una fórmula que me tuve que aprender de memoria (ya que todavía no sabía derivar). Me consta que todavía se sigue haciendo en muchas clases de matemáticas en ESO. Hacer eso no me sirvió para nada. Habría aprendido mucho más si me hubieran enseñado el significado físico del vértice de la parábola: el punto de retorno de una piedra que hemos lanzado verticalmente hacia arriba.

Una vez nos hemos mentalizado de que es importante asignar un triple significado a los objetos matemáticos (algebraico, geométrico y físico), vemos que un sistema de ecuaciones no sólo es equivalente a la intersección de curvas, también es equivalente al encuentro de objetos que se mueven.
Tenemos así otra forma intuitiva de visualizar cuántas y cuáles son las soluciones del sistema de ecuaciones: los cruces entre móviles. Por ejemplo, las soluciones a un sistema de ecuaciones formado por una ecuación de primer grado y otra de segundo grado, que geométricamente corresponden con los puntos de interesección de una recta y una parábola, se puede interpretar físicamente como los cruces de una piedra que ha sido lanzada verticalmente hacia arriba y luego cae, y un cohete que asciende a velocidad constante:


El movimiento en un campo conservativo


Lo siguiente que podemos enseñar a los estudiantes, cuando entran ya en Bachillerato es a interpretar la variable dependiente de una función $y=f(x)$ como la energía potencial $E_p=f(x)$ que tiene un objeto situado en un campo conservativo (un campo eléctrico, un campo gravitatorio, etc). Por ejemplo, si, estando un objeto situado en la superficie del planeta Tierra, le damos verticalmente una velocidad muy grande hacia arriba:
entonces, a la energía potencial que tiene el objeto por el hecho de estar sometido al campo gravitatorio terrestre $$
E_p=-\frac{GMm}{r}
$$ hay que sumarle la energía cinética que le hemos dado $$
E_c=\frac{1}{2}mv^2
$$ para calcular su energía mecánica. Si la fuerza de rozamiento con el aire es despreciable, esta energía mecánica se conserva, con lo que el objeto se va a mover siguiendo una línea recta en este diagrama, alejándose cada vez más del centro de la Tierra:
A medida que el objeto se aleja del centro de la Tierra, tiene cada vez más energía potencial y menos cinética. Esto significa geométricamente que la hipérbola que nos da la energía potencial se acerca cada vez más a la recta horizontal. En el punto de corte de ambas curvas algebraicamente la energía cinética es igual a cero. Eso significa físicamente que el objeto tiene velocidad nula en ese punto, con lo que cambia de sentido en su movimiento y empieza a caer, esta vez perdiendo energía potencial y ganando cinética. Por este motivo al punto de corte entre la recta horizontal y la hipérbola en este diagrama se le denomina punto de retorno. El objeto no tiene suficiente energía mecánica para llegar más alto.

No obstante, si la suma de energía potencial y energía cinética fuese algebraicamente mayor que cero, entonces geométricamente la recta horizontal y la hipérbola no se cortarían en ningún punto. Esto significa físicamente que no habría punto de retorno. El objeto ascendería eternamente y escaparía del campo gravitatorio terrestre.

Por otro lado, si el objeto, en vez de haber sido lanzado verticalmente hacia arriba, tuviera cierto momento angular $L$ de giro en torno al centro de la Tierra, entonces la gráfica de la energía potencial efectiva tendría una forma ligeramente distinta, ya que hay que añadir el término "centrífugo" $L^2/(2mr^2)$, que es la energía cinética de rotación, pero que ahora podemos considerarla en el paquete de la energía potencial:
En este caso, cuando la energía mecánica del objeto es menor que cero la recta horizontal corta a la gráfica de energía potencial en dos puntos. Eso significa físicamente que hay dos puntos de retorno: en la dirección radial el objeto oscila entre los puntos de $r$ máximo y mínimo, que se denominan respectivamente $r_a$ (apogeo) y $r_p$ (perigeo), aleándose y acercándose periódicamente del centro de la Tierra. Y, además, hace todo esto mientras gira en torno al centro de la Tierra con momento angular $L$. Se puede demostrar que la trayectoria que seguirá ese objeto es una elipse, con el centro de la Tierra situado en uno de los focos:
Elliptic orbit.gif
Podemos jugar ahora a ver qué le ocurre a la gráfica de la energía potencial cuando multiplicamos $r$, por dentro, por un factor $\alpha$. De acuerdo con las reglas anteriormente vistas, geométricamente esta operación implica "comprimir" la gráfica de energía potencial en el eje horizontal un factor $\alpha$. No obstante, algebraicamente se puede comprobar que la nueva energía potencial es la misma que la que había antes, pero multiplicada por $\alpha^{-1}$, con lo que comprimir la gráfica de la energía potencial en el eje horizontal es equivalente a comprimirla en el eje vertical. $$
E_p(\alpha r)=\alpha^{-1}E_p(r)
$$ (se dice que esta función es una función homogénea de grado $-1$). En cambio, al ser la velocidad la derivada de la posición con respecto del tiempo, ésta quedaría multiplicada por $\alpha$, con lo que la energía cinética quedaría multiplicada por $\alpha^2$, el momento angular $L$ quedaría multiplicado por $\alpha^2$ y el término centrífugo quedaría multiplicado por $\alpha^2$.

Pero si, además, hacemos una transformación similar en la coordenada temporal, entonces, al multiplicar el tiempo $t$ por una constante $\beta$, la velocidad quedaría multiplicada por $\alpha/\beta$, con lo que la energía cinética quedaría multiplicada por $\alpha^2/\beta^2$, el momento angular $L$ quedaría multiplicado por $\alpha^2/\beta$ y el término centrífugo quedaría multiplicado por $\alpha^2/\beta^2$. Si ahora hacemos que $\beta^2=\alpha^3$, obtenemos que todos los términos de la energía mecánica (el término cinético, el potencial y el centrífugo) cambiarían de acuerdo con el mismo factor ($\alpha^-1$). Lo que hemos hecho ha sido escalar el problema. Ahora tenemos exactamente las mismas soluciones para el movimiento del objeto que antes, pero con las distancias multiplicadas por un factor $\alpha$, los tiempos multiplicados por un factor $\alpha^{(3/2)}$ y las energías por $\alpha^{-1}$. Es decir, por cada trayectoria en un objeto en un campo gravitatorio puede haber otros objetos que sigan las correspondientes trayectorias dilatadas.

¿De qué nos ha servido jugar algebraicamente y geométricamente con con estas transformaciones de dilatación del espacio y del tiempo? Acabamos de demostrar la 3º ley de Kepler: los tiempos característicos al cuadrado de cualquier objeto moviéndose en el campo gravitatorio son proporcionales a los cubos de las distancias características. Nótese que estas dilataciones en el tiempo y el espacio funcionan en este problema físico sólo porque la hipérbola $E_p(r)$ es una función homogénea de grado $-1$. Como la pendiente de esta hipérbola es la fuerza gravitatoria (cambiada de signo), esta propiedad es equivalente a que la fuerza gravitatoria es inversamente proporcional al cuadrado de la distancia. Por eso Newton sabía que en la ley de gravitación universal tenía que haber un cuadrado. Si no lo hubiese, no se cumpliría la 3º ley de Kepler. Hoy sabemos que la potencia tiene que ser 2 por un motivo más profundo: vivimos en un universo de 3 dimensiones espaciales (o, mejor dicho, en el que hay 3 dimensiones que no están ocultas, como veremos más adelante, ya que a distancias microscópicas el exponente de la ley de gravitación universal podría ser mayor que 2).


Física, álgebra y geometría del oscilador armónico clásico


Como acabamos de decir, la pendiente en toda gráfica de energía potencial $E_p=f(x)$, que algebraicamente es la derivada, se corresponde físicamente con la fuerza conservativa (cambiada de signo) que actúa sobre el objeto en ese campo. $$
F_x=-\frac{dE_p}{dx}
$$ Si el objeto está situado en el mínimo (o en un máximo) de energía potencial, entonces la fuerza conservativa que actúa sobre él es nula (al ser la pendiente nula en ese punto) y por eso ese mínimo es un punto de equilibrio. En cambio, si está ligeramente desplazado del punto de equilibrio, entonces actuará sobre él una fuerza conservativa que, por el signo menos de la fórmula anterior, empujará al objeto en sentido contrario a la pendiente. Si ese punto de equilibrio era un máximo, entonces la fuerza conservativa empujará al objeto en el sentido de alejarlo aún más del punto de equilibrio y se dice que ese punto de equilibrio era inestable.
En cambio, si ese punto de equilibrio era un mínimo, la fuerza conservativa empujará al objeto en el sentido de llevarlo de nuevo al punto de equilibrio y se dice entonces que ese punto de equilibrio es estable.
El objeto oscilará entre dos puntos de retorno en torno a ese punto de equilibrio estable, como hemos explicado antes.
Cuando la oscilación es pequeña en torno al mínimo de energía potencial, podemos aproximar la gráfica $E_p=f(x)$ por una parábola y se dice entonces que esa oscilación es armónica:
Esto se corresponde algebraicamente con hacer el desarrollo de Taylor en serie de potencias de $x$ (renombrando el origen de $x$ en precisamente ese mínimo) y truncándolo en orden 2. Estamos, por tanto, aproximando la función $f(x)$ por un polinomio de segundo grado que, poniendo el cero en la energía potencial en ese mínimo, es simplemente $$
E_p=0+0\cdot x+ \frac{1}{2}Kx^2,
$$ ya que la primera derivada en el mínimo es nula.

Derivando la función energía potencial para el caso de oscilaciones pequeñas, se obtiene la ley de Hooke $$
F_x=-Kx
$$ Al parámetro $K$ se le denomina constante elástica del problema. El objetivo de toda esta discusión es mentalizar al lector de que los estudiantes de bachillerato sólo entenderán las oscilaciones armónicas en profundidad si son capaces de comprender el triple significado de $K$:
  • algebraicamente, es la constante de proporcionalidad en la ley de Hooke, y también la segunda derivada de la función $E_p=f(x)$ en ese mínimo.
  • geométricamente, nos dice cómo de cerrada es la parábola que mejor se aproxima a $E_p=f(x)$ en ese mínimo, y también nos da la pendiente de la gráfica de $F_x$ frente a $x$.
  • físicamente, no dice cómo de intensa es la fuerza restauradora para un desplazamiento dado respecto del punto de equilibrio estable.
No sólo este acercamiento a los conceptos físico-matemáticos desde este triple punto de vista es fundamental para un adecuado aprendizaje de éstos. Es esta multiplicidad de significados la que convierte a las matemáticas en una disciplina apasionante. En palabras de Maryam Mirzakhani, medalla Fields en 2014, "Encuentro fascinante el poder mirar un mismo problema desde distintas perspectivas y enfoques. [...] Discutir con colegas de diferente formación es para mí una de las maneras más productivas de progresar".

Si esta fuerza conservativa $F_x$ es la única que actúa, entonces, combinando la ley de Hooke con la la segunda ley de Newton $F_x=ma_x$, se obtiene $$
a_x=-\frac{K}{m}x
$$ Como la aceleración $a_x$ es la segunda derivada respecto del tiempo de la función $x(t)$, la función $x(t)$ para el oscilador armónico es tal que su segunda derivada es menos ella misma multiplicada por el factor $$
\omega^2=\frac{K}{m}
$$ Fijando de momento $\omega=1$, vemos que la función $x=\sin (t)$ es solución.
Se observa que, efectivamente, la solución es oscilatoria. El objeto oscila entre los puntos $x=-1$ y $x=1$ con periodo $2\pi$.

Juguemos ahora a transformar esta función con las técnicas que hemos explicado anteriormente, para ver si obtenemos nuevas soluciones.

Por ejemplo, podemos desplazar la gráfica hacia la derecha simplemente restando una cantidad $\delta_o$ por dentro: $$
x=\sin (t-\delta_o)
$$ y la función obtenida sigue siendo solución del problema.
A la cantidad $-\delta_o$ se la denomina fase inicial. El triple significado que todo estudiante debe conocer es:
  • algebraicamente, lo que se suma a la función por dentro.
  • geometrícamente, lo que se desplaza la gráfica en el eje temporal.
  • físicamente, el ángulo al que hay que sacarle el seno para hallar la posición inicial del objeto, es decir, en qué fase de la oscilación se encuentra el objeto en $t=0$.

También podemos estirar la gráfica verticalmente, multiplicando por fuera por el parámetro $A$: $$
x=A\sin (t-\delta_o)
$$ y el resultado obtenido sigue siendo solución.
El parámetro $A$ se denomina amplitud, y el triple significado que tiene es:
  • algebraicamente, el factor que multiplica a la función por fuera.
  • geométricamente, lo que hemos estirado la gráfica verticalmente.
  • físicamente, la elongación máxima, es decir, lo máximo que se separa el objeto que oscila de la posición de equilibrio, la distancia de los puntos de retorno al punto de equilibrio.

Si, además, consideramos que el parámetro $\omega$ no es igual a 1, entonces necesitamos que la función también quede multiplicada por $\omega^2$ al derivarla 2 veces. La regla de la cadena nos dice que podemos conseguir esto multiplicando por dentro por $\omega$: $$
x=A\sin (\omega t-\delta_o)
$$ Normalmente, tardo 3 días en explicar esta fórmula a los estudiantes de 1º de Bachillerato: un día para trabajar las transformaciones de funciones (porque en clase de matemáticas eso no suelen hacerlo), otro día para explicar por qué el oscilador armónico es una buena aproximación a cualquier oscilación pequeña, y una tercera para aplicar las dos clases anteriores a la función seno. Así que la eficiencia de este profesor de física es de una fórmula cada 3 días, es decir, 0,33 fórmulas por día. Otros profesores son muchos más eficientes que yo, porque en 5 minutos escriben la ecuación del movimiento del oscilador armónico en la pizarra y hacen memorizar a los estudiantes el nombre de cada una de las letras.

El efecto que tiene hacer esto es comprimir la gráfica en el eje temporal, de manera que el periodo de la función ya no es $2\pi$, sino $$
T=\frac{2\pi}{\omega}
$$
El triple significado de $\omega$, que se denomina frecuencia angular, es, por tanto:
  • algebraicamente, el factor por el que multiplicamos a la función por dentro.
  • geométricamente, el factor con el que comprimimos la gráfica en el eje temporal.
  • físicamente, lo rápido que oscila el objeto en torno al punto de equilibrio (la frecuencia de oscilación es $\omega/(2\pi)$).


La teoría de grupos en la física


Acabamos de ver que, cuando hacemos una transformación algebraica a una función, la regla para ver qué le ocurre geométricamente a su gráfica está al revés cuando hacemos la transformación por dentro que cuando la hacemos por fuera. Así, por ejemplo, cuando multiplicamos por $\omega$ la ecuación de movimiento $x(t)$ del oscilador armónico, pero lo hacemos por dentro (lo que equivale físicamente a multipicar por $\omega$ su frecuencia de oscilación), la gráfica espaciotiempo que describe este movimiento no se estira, sino que se contrae como un acordeón en el eje temporal. La regla de correspondencia entre la expresión algebraica y la geometría está al revés si la transformación se hace por dentro de la función. ¿Hay alguna razón profunda por la cual esto tiene que ser siempre así? Sí, la hay. Para ello tenemos que entender primero el concepto de grupo.

En matemáticas, se denomina grupo a cualquier conjunto con una operación interna que cumpla las propiedades asociativa, la existencia de un elemento neutro y la existencia de un elemento inverso para cualquier elemento. La mejor manera intuitiva de entender qué es un grupo es pensar en un conjunto de transformaciones que se pueden hacer a un sistema físico. La composición de transformaciones es también una transformación y, además, cumple la propiedad asociativa. La transformación inversa de toda transformación es lo que hay que hacer para deshacerla. Y la transformación identidad (no hacer nada) es la que actúa como elemento neutro.

Lo que hace a la teoría de grupos interesante es que los grupos son, en general, no abelianos. Esto significa que el orden en que se llevan a cabo estas transformaciones es importante. Éstas no conmutan en general. Podemos llevar a cabo la transformación $a$, y después la transformación $b$, y el resultado es distinto al que se obtendría si hubiéramos hecho esas dos transformaciones en orden inverso.

Hay grupos de estructura muy complicada y de cualquier número de elementos, hasta infinito no numerable. No obstante, el estudio de muchos grupos se puede simplificar cuando es posible descomponerlo en grupos más pequeños. Esto ocurre cuando el grupo tiene algún subgrupo no trivial con una característica especial, denominado subgrupo normal. En cambio, los grupos que no tienen subgrupos normales no se pueden descomponer en otros y, por tanto, se puede decir que son los bloques constituyentes básicos de la teoría de grupos. Afortunadamente, los matemáticos han sido capaces, en una tarea colectiva que ha durado muchos años, de clasificar los distintos grupos simples que hay, en familias sistemáticas y una colección finita de grupos excepcionales y esporádicos. Dentro de estos grupos esporádicos, el que, de los que tienen un número finito de elementos, es el mayor de todos, se denomina grupo monstruo, y ¡tiene exactamente 808,017,424,794,512,875,886,459,904,961,710,757,005,754,368,000,000,000 elementos!

El conjunto de todas las transformaciones que le hemos hecho anteriormente a la coordenada temporal (dilataciones y traslaciones) también tiene la estructura de grupo, aunque en este caso se trata de un grupo continuo con un número infinito no numerable de elementos, ya que el factor de dilatación $\omega$ puede ser cualquier número real positivo, y el desfase $\delta_o$ puede ser cualquier número real. Tras una transformación $a$, la coordenada $t$ se convierte en $\omega_a t + \delta_{oa}$. Si, a continuación, realizamos la transformación $b$, el resultado es $$
\omega_b\omega_a t + \omega_b\delta_{oa}+\delta_{ob},
$$ que no es más que una dilatación temporal mediante un factor $\omega_b\omega_a$ seguida de una traslación temporal mediante una cantidad $ \omega_b\delta_{oa}+\delta_{ob}$. Si, por el contrario, llevamos a cabo primero la transformación $b$ y luego la transformación $a$, el resultado es diferente, y este es el motivo por el que este grupo no es abeliano. La transformación inversa de $a$, que se denota como $a^{-1}$, es una dilatación temporal mediante un factor $\omega_a^{-1}$ seguida de una traslación mediante la cantidad $-\omega_a^{-1}\delta_{oa}$.

Uno de los principios fundamentales de la matemática moderna es que la mejor forma de entender cualquier espacio $E$, dado como conjunto de puntos, es estudiando las funciones que tienen como dominio ese espacio. Así, una forma de estudiar cómo un grupo de transformaciones actúa sobre el conjunto $E$ es mediante la acción de ese grupo sobre el espacio de funciones cuyo dominio es $E$. La ventaja que tiene esto es que las funciones constituyen espacios vectoriales, ya que la combinación lineal de funciones de determinado tipo suele ser también de este tipo. El espacio $E$ puede no ser lineal y tener una estructura geométrica muy complicada, pero el espacio de sus funciones sí lo es. En el ejemplo anterior, el espacio $E$ es la recta real de instantes temporales, parametrizado por la coordenada $t$, y el conjunto de todas las funciones continuas cuyo dominio es $E$ es el espacio vectorial de todos los posibles movimientos rectilíneos. La acción del grupo de dilataciones y traslaciones temporales sobre el espacio de estas funciones se define de la siguiente manera: $$
(a\cdot f)(t)=f(a^{-1}\cdot t).
$$ Esta es la forma matemática rigurosa de expresar la idea de que al dilatar o trasladar la coordenada temporal $t$ por dentro de la función, el efecto que estamos consiguiendo sobre la función es precisamente la dilatación o la traslación inversa. ¿Por qué los matemáticos meten la inversa $a^{-1}$ en esta definición? Lo hacen así para que la acción del grupo sobre las funciones respete la estructura del grupo original. En efecto, si combinamos dos transformaciones: $$
(ba\cdot f)(t)=f((ba)^{-1}\cdot t)=f(\omega_b^{-1}\omega_a^{-1} t- \omega_b^{-1}\omega_a^{-1}\omega_b\delta_{oa}+\delta_{ob})=
$$ $$
=f(a^{-1}\cdot b^{-1}\cdot t)=(a\cdot f)(b^{-1}\cdot t)=(b\cdot (a\cdot f))(t),
$$ se obtiene que la acción de $ba$ actuando sobre las funciones es equivalente a la acción de $a$ sobre ellas, seguida de la acción de $b$. Si no hubiéramos puesto la inversa en la definición, esto no ocurriría.

La abstracción de la idea de estudiar un grupo por su acción sobre las funciones da lugar al concepto de representación. Una representación es una función $R$ que asocia, a cada elemento $a$ de un grupo, su correspondiente transformación en un espacio vectorial, de manera que la estructura del grupo se respete, es decir, que $$
R(b) \cdot R(a)=R(ba)
$$ Es evidente que mapear todos los elementos de un grupo a la transformación identidad en un espacio vectorial es trivialmente una representación. Lo interesante es estudiar las representaciones no triviales de los distintos grupos que reproduzcan la estructura de los mismos de forma fiel. Por ejemplo, es posible representar el grupo monstruo como un conjunto finito de ciertas rotaciones concretas sobre un espacio vectorial. El espacio vectorial de dimensión más pequeña que reproduce la estructura de este grupo de forma fiel tiene 196883 dimensiones. Es recomendable que memorice este número antes de seguir leyendo.

¿Cuál es el significado físico de las representaciones de un grupo? En física cuántica los estados en los que se puede encontrar un sistema son elementos de un espacio vectorial. Esto implica que los grupos de transformaciones sobre ese sistema actúan sobre los estados de ese sistema mediante representaciones unitarias, que son representaciones de esas transformaciones que conservan la probabilidad total.

Por ejemplo, al evolucionar temporalmente el sistema físico, las amplitudes de probabilidad de los distintos sucesos mecanocuánticos irán cambiando, pero las probabilidades tienen que seguir sumando uno. Los estados mecanocuánticos irán, por tanto, cambiando según cierta transformación unitaria cuya representación en el espacio de estados llamamos $\hat{U}(t)$. Si llamamos $\psi(t_o)$ a la función de onda del sistema cuántico en un instante $t_o$ dado, el resultado de aplicar el operador evolución $\hat{U}(t)$ a la función de onda es: $$
\psi(t+t_o)=\hat{U}(t) \psi(t_o)
$$ Por otro lado, el desarrollo de Taylor de la función $\psi(t+t_o)$ en torno a $t=0$ es$$
\psi(t+t_o)=\sum_{n=0}^\infty \frac{1}{n!}\frac{d^{(n)}\psi}{dt}(t_o)t^n=e^{t\frac{d}{dt_o}}\psi(t_o)
$$ coincide con el de la función exponencial si aceptamos que pueda haber un operador derivada en el exponente. La conclusión es que el operador evolución en mecánica cuántica se puede escribir como una exponencial de un operador hermítico $$
\hat{U}(t)=e^{-\frac{i}{\hbar}\hat{H}t}
$$ donde a $\hat{H}=i\hbar\frac{d}{dt_o}$ se le denomina operador hamiltoniano del sistema. Matemáticamente, el operador hamiltoniano es un vector perteneciente al álgebra de Lie correspondiente a la representación del grupo de traslaciones temporales sobre el espacio vectorial de estados cuánticos del sistema, es decir, el generador de esas traslaciones temporales en esa representación. En mecánica cuántica, los generadores de transformaciones unitarias son operadores hermíticos que representan físicamente a los observables. En este caso, el observable que representa el hamiltoniano es la energía. Los autovalores de este operador son, por tanto, los posibles valores de la energía del sistema. Por ejemplo, el oscilador armónico cuánticamente sólo puede tener unos valores discretos de la energía, de valores $E_n=\hbar\omega(n+1/2)$, donde $n$ es una número natural (comenzando en cero).

Si el hamiltoniano de un sistema es independiente del tiempo, entonces los autovectores del hamiltoniano, al serlo también del operador evolución, sólo cambian ante una evolución temporal con un factor de fase $$
e^{-\frac{i}{\hbar}Et}=\cos(Et/\hbar)-i\sin(Et/\hbar),
$$ siendo $E$ el autovalor correspondiente. La dependencia temporal de estos estados, que se denominan estacionarios, es la de un oscilador armónico clásico con frecuencia angular $\omega=E/\hbar$. Al seguir siendo autovectores del hamiltoniano con el mismo autovalor, la energía del sistema sigue siendo la misma. Es una cantidad que se conserva.

Si el sistema cuántico posee la simetría de ser invariante ante todos los elementos de un grupo $G$, entonces los operadores unitarios que representan la acción de $G$ sobre los estados cuánticos conmutan con el operador evolución temporal. Esto hace que los generadores de esas representaciones unitarias, que son operadores hermíticos, también conmuten con el operador evolución y con el hamiltoniano. Las magnitudes físicas que representan estos operadores hermíticos serán, por tanto, también cantidades conservadas. Además, un resultado básico y muy importante de la teoría de representaciones de los grupos (el lema de Schur) nos dice que el hamiltoniano, al conmutar con los operadores que implementan las representaciones unitarias de ese grupo de simetrías, tiene que ser proporcional al operador identidad dentro de cada representación. Esto significa físicamente que todos los estados de una misma representación de ese grupo de simetrías son degenerados, tienen todos la misma energía. Por tanto, cuando un sistema cuántico tiene una simetría, el espacio vectorial de todos los estados que tienen una misma energía va a ser siempre una representación de ese grupo de simetría. Retenga este resultado para lo que viene más adelante. Además, esa representación, por ser unitaria, va a ser siempre una suma directa de representaciones irreducibles del grupo $G$.

Hay otro motivo por el que la exponencial del hamiltoniano juega un papel muy importante en física. Si el sistema físico tiene una temperatura finita $T$, entonces la probabilidad de que el sistema físico se encuentre en un estado de energía $H$ tiene que ser proporcional al factor de Boltzmann $$
e^{-H/T}.
$$ Es decir, esta probabilidad será menor cuanto mayor sea la energía del estado y este efecto será más exagerado cuanto menor sea la temperatura. Pensemos, por ejemplo, en un gas. Cada una de las moléculas del gas recibe colisiones al azar por las demás moléculas que le transmiten cantidad de movimiento en todas las direcciones. Lo más probable es que esa molécula reciba tantas colisiones por el lado derecho que por el izquierdo, con lo que, de todos los estados, el más probable es el que tiene poca velocidad, poca energía. Para calcular de forma exacta esa probabilidad habría que dividir entre un factor de normalización $$
Z=\sum e^{-H/T},
$$ que no es más que la suma de estas exponenciales para todos los estados y que se denomina función de partición. Así nos aseguramos de que todas las probabilidades sumen 1. Por ejemplo, para el oscilador armónico cuántico hay sólo un estado estacionario en cada nivel de energía, con lo que la función de partición es $$
Z=\sum_{n=0}^\infty 1\cdot e^{-\hbar\omega(n+1/2)/T}=1q+1q^3+1q^5+...=\frac{q}{1-q},
$$ donde $q=e^{-\hbar\omega/(2T)}$. Recuerde para lo que viene a continuación que, si el espacio de estados de energía en el nivel n-ésimo tuviera dimensión $d$, entonces el coeficiente correspondiente en la expansión en serie de potencias de $q$ de la función de partición no sería $1$, sino $d$.

Nótese también que el factor de Boltzmann se puede entender como la continuación analítica del operador evolución temporal, ya que la diferencia entre ambos no es más que in factor $i$ en el exponente. Este truco nos permite a los físicos calcular funciones de partición mediante amplitudes mecanocuánticas.


Los efectos negativos de la separación artificial entre física y matemáticas


Si la física, el álgebra y la geometría son en realidad caras distintas de una misma cosa, ¿por qué entonces en las distintas asignaturas de matemáticas en bachillerato y en la universidad apenas se habla de física? Voy a intentar argumentar que, en realidad, la separación actual, como áreas de conocimiento y de investigación distintas, entre física y matemáticas es más bien un fenómeno social.

En primer lugar, basta estudiar un poco la historia de la física y de las matemáticas para darse cuenta de que hasta comienzos del siglo XX las matemáticas y la física eran la misma disciplina, cultivada por las mismas personas. Es cierto que a principios de ese siglo la comunidad de físicos/matemáticos ya era consciente de la necesidad de construir las matemáticas sobre fundamentos firmes (axiomas y postulados de los que, aplicando una serie de reglas lógicas, se obtengan teoremas) al margen de los principios y las leyes de la física, para evitar así que las matemáticas colapsen cada vez que se descubra algún hecho sorprendente sobre el mundo real. Así, se puede asignar existencia real a las ecuaciones que gobiernan el comportamiento del fluido calórico, al menos como objetos matemáticos en el mundo de las ideas, de forma que toda esa matemática no sea destruida tras descubrir que el fluido calórico no existe. Y lo mismo ocurre con la trayectoria de una partícula puntual. Posee una definición matemática que sigue siendo válida aunque la física cuántica nos haya hecho ver que las trayectorias en realidad no existen en la naturaleza, ya que las partículas puntuales, en su movimiento, no describen ninguna trayectoria bien definida. En el cálculo mecánocuántico de la amplitud de probabilidad de que la partícula acabe en un sitio concreto intervienen simultáneamente todas las trayectorias, sobre todo aquellas que no son diferenciables.

Sin embargo, el trabajo que realizan los matemáticos de construcción de su disciplina sobre fundamentos firmes no difiere en cuando a cualidad del que realizan los físicos teóricos. Después de todo, para que podamos confiar en los teoremas de las matemáticas los sistemas axiomáticos a los pertenecen han de ser consistentes, y el segundo teorema de Gödel nos dice que dentro de un mismo sistema axiomático no es posible probar su consistencia. Por tanto, la consistencia de las matemáticas modernas es más una hipótesis con un fuerte apoyo experimental, como las de la física mejor establecida, que una verdad a priori, sólo que con un apoyo cuantitativamente más fuerte. Además, la mayoría de los problemas y los resultados en matemáticas siguen estando relacionados, directa o indirectamente, con el mundo real, y las intuiciones aprendidas del estudio del mundo real siguen ayudando mucho a los matemáticos, aunque no siempre lo reconozcan.

En segundo lugar, al contrario de lo que nos hacen creer en clase de matemáticas, no es descabellado pensar que en cierto sentido lo que suelen hacer los matemáticos es en realidad más práctico y menos abstracto que lo que hacemos los físicos teóricos. Tanto matemáticos como físicos teóricos definimos objetos, demuestramos teoremas y resolvemos problemas matemáticos. Sin embargo, mientras que los físicos teóricos, cuando encontramos las ecuaciones que gobiernan algún problema profundo que nos interesa, solemos considerar a éste como "resuelto" (ya que el trabajo que queda es, al menos en principio, mecánico), los matemáticos consideran más bien que el grueso de su trabajo es precisamente la búsqueda de esas soluciones y el estudio de las propiedades que poseen. A la vez, los matemáticos suelen despreciar la tarea principal que realizan los físicos teóricos: la búsqueda de las preguntas y los problemas adecuados y la exploración de las implicaciones que tienen las distintas hipótesis en esas cuestiones para ver si se pueden establecer o no como los principios fundamentales que nos delimitan lo que se puede y lo que no se puede hacer. Pero es precisamente esta búsqueda la parte más abstracta y general del quehacer de los físicos/matemáticos. En cambio, resolver problemas predeterminados es una actividad más práctica, más aplicada, menos "teórica".

El enunciado de finales del siglo XIX, que falsamente se atribuye a Lord Kelvin, de que ya no quedaban principios físicos que descubrir, y que lo que quedaba era realizar mediciones cada vez más precisas encaja muy bien en la forma de pensar de muchos matemáticos: resolver problemas utilizando reglas bien establecidas. Pero precisamente la física ha demostrado a lo largo de toda su historia, reciente y no reciente, que reglas del juego que pensábamos bien establecidas, como, por ejemplo, que las partículas en su movimiento describen trayectorias bien definidas, no son adecuadas para describir la naturaleza y tienen que ser sustituidas por otras. Estas reglas no son obvias. Por ejemplo, la geometría de una variedad, tal y como la conciben los matemáticos, está basada en aquellos elementos que una partícula puntual es capaz de explorar al moverse por ese espacio. Pero, ¿qué ocurre si las partículas puntuales no existen, y los objetos fundamentales son extensos, como postula la teoría de cuerdas? Las reglas del juego cambian completamente, como vamos a ver más adelante en este texto. Los matemáticos no pueden ignorar estos cambios en lo que se puede o no se puede hacer, porque precisamente los objetos matemáticos con propiedades más profundas e interesantes son aquellos que son más naturales desde el punto de vista físico.

El problema es que a mediados del siglo XX hubo una serie de matemáticos muy influyentes a los que esta distinción sin frontera clara entre las matemáticas puras y la física teórica no les pareció suficiente. Los que más influencia tuvieron son los que formaron parte del grupo Bourbaki. Este grupo publicó, bajo la excusa de reconstruir toda la matemática de forma mucho más rigurosa, decenas de libros en varios volúmenes con la ideología de que cualquier tipo de significado físico, y muchas veces también geométrico, de los objetos matemáticos debe silenciarse y ocultarse a los jóvenes. El resultado de esta influencia ha sido, usando palabras de Vladímir Ígorevich Arnold, uno de los matemáticos más prolíficos de la historia, que:

"Generaciones completas de matemáticos se formaron sin conocer la mitad de su ciencia y, naturalmente, bajo la total ignorancia de las demás ciencias. Estos matemáticos empezaron primero por enseñar su horrible pseudo-matemática escolástica a sus estudiantes, y después a los niños en los colegios [...]. Como la matemática escolástica que surge de suprimir la física de los temarios no es adecuada ni para la enseñanza ni para su aplicación a las demás ciencias, esto provocó que se extendiera un odio universal hacia las matemáticas, tanto en lo que respecta a los pobres niños de los colegios (algunos de los cuales acaban siendo ministros) como por parte del resto de usuarios.
[...]
Este horrible edificio, construido por matemáticos incultos que no daban para más por su complejo de inferioridad, y que eran incapaces de familiarizarse con la física, [...] predominó en la enseñanza de las matemáticas durante décadas. Habiéndose originado en Francia, esta perversión rápidamente se expandió a la enseñanza de los fundamentos de las matemáticas, primero a los estudiantes universitarios y luego a los colegios y centros de secundaria (primero en Francia, y luego en los demás países, Rusia incluida).
[...]
De acuerdo con mi propia experiencia dando clases en la universidad en Francia, la idea que tienen los estudiantes universitarios acerca de las matemáticas [...] es tan pobre como la de los niños de los colegios. Por ejemplo, estos estudiantes nunca han visto un paraboloide, y preguntas como cuál es la forma de la superficie dada por la ecuación $xy=z^2$ dejan a los estudiantes de la École Normale Supérieure (ENS) en estado de shock. Pintar una cuva en un plano dada mediante ecuaciones paramétricas, como $$
x=t^3-3t
$$ $$
y=t^4-2t^2,
$$es una tarea totalmente imposible para estos estudiantes (y, probablemente, incluso para la mayoría de los profesores de matemáticas). Comenzando por el primer manual de de cálculo de la historia, de l'Hôpital ("cálculo para entender las líneas curvas") y más o menos hasta el manual de Goursat, la habilidad para resolver este tipo de problemas se había considerado siempre [...] como una de las destrezas indispensables que tienen que poseer todo matemático. Pero los fanáticos de las "matemáticas abstractas" suprimieron la geometría (a través de la cual tiene lugar habitualmente en matemáticas la conexión con la física y la realidad) de la enseñanza. Manuales de cálculo como los de Goursat, Hermite, y Picard han sido recientemente desechados por la biblioteca de estudiantes del campus universitario de Jussieu en París por obsoletos y, por tanto, dañinos (fueron sólo rescatados gracias a mi intervención)" [Arnold1998].

Invito al lector a leer el discurso completo de Arnold dado en el Palais de Découverte en Paris en 1997. Da muchos más ejemplos como estos y no tiene desperdicio.


El papel de la física en la matemática de las últimas décadas


Interpretar los objetos y los problemas matemáticos en el contexto de sistemas físicos (reales o imaginarios) ha demostrado ser, no no sólo un ejercicio muy útil para los estudiantes, sino también una herramienta muy potente y fundamental para la investigación de alto nivel en matemáticas. Los ejemplos a lo largo de la historia de grandes avances en las matemáticas que se han llevado a cabo gracias a la intuición física de grandes pensadores son tan numerosos que es imposible recoger aquí siquiera una lista de los más importantes.

Lo que sí quiero remarcar en este texto es que, a pesar del daño causado durante la segunda mitad del siglo XX por intentar aislar a los matemáticos de la física, esta influencia positiva de la física en el desarrollo de las matemáticas se está potenciando de nuevo. Como afirma el actual director del Instituto de Estudios Avanzados de Princeton, Robert Dijkgraaf, "en las últimas décadas las nuevas ideas en teoría cuántica de campos, física de altas energías y teoría de cuerdas han transformado completamente las matemáticas, conduciéndonos a la solución de algunos problemas profundos, sugiriendo nuevos invariantes en geometría y topología y, quizás más importantemente, poniendo a las matemáticas modernas en un contexto natural" [Dijkgraaf2015].

Por ejemplo, las teorías cuánticas de campos topológicas son teorías físicas en las que los valores esperados de los observables mecanocuánticos codifican información sobre la topología de las variedades en las que "viven". Esto le sirvió a Edward Witten para encontrar en 1989 que muchos invariantes topológicos de la teoría de nudos y sus entrelazamientos descubiertos durante los años 80 (como los polinomios HOMFLY, que incluyen a los de Jones, y también como los polinomios de Kaufmann) pueden ser reinterpretados físicamente como funciones de correlación de operadores lazo de Wilson en la teoría de Chern-Simons, que es una teoría gauge en tres dimensiones con invariancia topológica.

Witten también demostró que las funciones de partición de la teoría de Chern-Simons proporcionaban nuevos invariantes topológicos de variedades tridimensionales, y mediante la obtención de la solución exacta a esta teoría pudo establecer una sorprendente conexión entre los nudos y los invariantes de variedades tridimensionales. Por todo este trabajo fue galardonado con la Medalla Fields en 1990. Los matemáticos habían estado siglos intentando clasificar los nudos, pero desde Witten sabemos que los invariantes que los caracterizan no son más que diferencias de fase entre caminos cuánticos que interfieren en la integral de camino de Feynman si interpretamos cada nudo como el camino cerrado que surge de componer uno de los caminos con el inverso del otro camino. Al introducir esto en teoría cuántica de campos, ¡podemos así describir los nudos mediante diagramas de Feynman!


Por otro lado, el estado de la geometría enumerativa ha cambiado radicalmente gracias a la teoría de cuerdas. Por consistencia de la teoría de cuerdas, las supercuerdas viven en 9 dimensiones espaciales y una temporal. Como el universo observado tiene 3 dimensiones espaciales, las otras 6 deben estar ocultas: deben ser compactas y de pequeño tamaño. Podemos dar una interpretación física a las variedades de tipo Calabi-Yau de 3 dimensiones complejas (6 reales) como las dimensiones ocultas en teoría de cuerdas, ya que éstas variedades son soluciones de las ecuaciones de Einstein de la relatividad general. Si hacemos esto, vemos que algunas funciones de correlación de la teoría de cuerdas compactificada en estas variedades Calabi-Yau nos permiten calcular el número de mapas holomorfos que van desde la sábana de mundo bidimensional de la cuerda hasta el espacio target Calabi-Yau y que, por tanto, estas funciones de correlación, que se calculan con integrales de camino de Feynman, contienen información acerca de la geometría enumerativa de estos espacios. Esto condujo a la introducción de los invariantes de Gromov-Witten en matemáticas como una forma de capturar toda esta información. Además, el descubrimiento en estas compactificaciones en teoría de cuerdas de una simetría inesperada, denominada mirror symmetry, permitió a los físicos calcular las funciones generatrices de estos invariantes, lo que les permitió resolver con herramientas físicas problemas enumerativos muy difíciles [Hori2003]. Por ejemplo, los físicos de cuerdas fueron capaces de calcular el número de curvas dadas por ecuaciones paramétricas cúbicas (de grado 3) en el quintic, que es la variedad compacta de tipo Calabi-Yau de 3 dimensiones complejas más simple. Hay 3172016375 curvas de este tipo.
Calabi yau

Los matemáticos, incluso necesitando una colaboración masiva con supercomputadoras para llevar a cabo tal ardua tarea de cálculo, cometieron un error que los físicos corrigieron de forma inmediata. No sólo eso. Los físicos también habían sido capaces de calcular el número de curvas, no sólo de grado 3, sino de grado 4, 5... ¡hasta incluso grados mayores que 10!  Esto estaba fuera del alcance computacional de los matemáticos, que fliparon en colores ante tal humillación.

¿Qué truco habían utilizado los físicos? En realidad fueron dos trucos. El primero de ellos es que la teoría de cuerdas es una teoría cuántica que nos permite combinar elegantemente los números de curvas de cualquier grado en una única función que físicamente no es más que una amplitud de probabilidad de la cuerda propagándose por esa variedad Calabi-Yau. Los matemáticos consideraban que se trataba de un problema distinto para cada grado, pero los físicos pudieron abordarlos todos de una sola tacada.

Para entender el segundo truco, es importante volver sobre el hecho de que en teoría de cuerdas los objetos fundamentales no son puntuales, sino que son cuerdas cerradas y abiertas. Y resulta que, por la forma en que interaccionan estos objetos extensos, las cuerdas que se mueven en una de estas direcciones ocultas de pequeño tamaño son equivalentes a las que están enrolladas en otras variedades compactas de tamaño el inverso del tamaño anterior. Hay una simetría perfecta entre los fenómenos físicos de ambas descripciones, con lo que no hay forma de distinguir una situación de otra mediante experimentos: son situaciones físicamente equivalentes:
La mirror symmetry es una generalización de esta simetría que relaciona dos variedades de tipo Calabi-Yau que geométricamente (y también algebraicamente) son muy distintas, pero que físicamente en teoría de cuerdas son equivalentes. Resulta que objetos de geometría algebraica en un Calabi-Yau se corresponden, al aplicar mirror symmetry, con objetos de geometría simpléctica en su Calabi-Yau espejo. En palabras de Nick Sheridan, "la geometría algebraica es un mundo más rígido, mientras que la geometría simpléctica es más flexible. Esta es una de las razones por la que se trata de mundos tan diferentes y es tan sorprendente que hayan resultado ser equivalentes en un sentido profundo". Un cálculo, como la amplitud de probabilidad que nos da el número de curvas que hemos mencionado antes, puede ser muy complicado en un Calabi-Yau, pero reducirse a una simple integral en el otro.

Este es el ejemplo más claro de que no basta con estudiar estas variedades desde el punto de vista geométrico y algebraico. Hizo falta ponerlas también en el contexto de la física para poder llevar a cabo este avance. Ni con las ecuaciones algebraicas ni con su interpretación geométrica podían los matemáticos siquiera imaginarse esta importante relación entre geometría algebraica y geometría simpléctica. Pero al cambiar las reglas del juego, la pregunta de cuál es la geometría del universo ha dejado de tener sentido, ya que ningún experimento es capaz de distinguir entre descripciones duales equivalentes. Para ello necesitaríamos explorar el universo con partículas puntuales, pero éstas podrían resultar ser un mito, como el flogisto, el fluido calórico o el éter luminífero. La concepción clásica de la geometría cambia por completo si todo lo que existe en el universo son objetos extensos. Esta importante lección que nos ha enseñado la teoría de cuerdas no puede ser ignorada por ningún matemático ni ningún físico, por mucho que se nieguen a estudiarla, ya sea por falta de tiempo o por pereza intelectual. Mirror symmetry es en estos momentos uno de los campos más florecientes de las matemáticas.

Y mirror symmetry es sólo un tipo dentro de la gran cantidad de dualidades con las que se trabaja actualmente en física teórica. Por ejemplo, en los últimos 20 años estos dos grandes avances que acabamos de mencionar, el de los nudos con la teoría de Chern-Simons y el de la geometría enumerativa con el sector topológico de la teoría de cuerdas, se han podido conectar gracias a las dualidades de gran N que establecen la equivalencia de teorías gauge con cuerdas cerradas. Una de estas dualidades, la dualidad de Dijkgraaf-Vafa, físicamente no es más que la equivalencia entre la descripción de un estado mecanocuántico mediante una función de onda en la representación coordenadas y una representación basada en estados coherentes estrujados (algo así como tener aparatos de medida que detectan puntos gordos en el espacio de fases). Esto tiene implicaciones profundas que todavía no entendemos bien. Sobre esto trató mi tesis doctoral, así que no hace falta que exprese que todas estas conexiones me parecen apasionantes (¿o a lo mejor no?).

Para ver un último ejemplo de la utilización de conceptos físicos para resolver problemas matemáticos de alto nivel, necesitamos entender qué es el grupo modular. Imaginemos que, en el plano complejo $z=\sigma+it$, tenemos una red de vectores dada por aquellos números complejos cuyas partes reales e imaginarias sean números enteros.
Supongamos que ahora consideramos como equivalentes aquellos puntos del plano complejo que difieran por uno de estos vectores de la red. Lo que se obtiene es, topológicamente hablando, un 2-toro:

Pero éste no es el toro complejo más general que podemos construir. Si utilizamos la red generada por el número complejo $\tau=\tau_1+i\tau_2$ y por la unidad $1$,
Entonces lo que tenemos es el 2-toro que surge de las identificaciones $z\equiv z+1$ y $z\equiv z+\tau$

Al parámetro complejo $\tau$ se le denomina estructura compleja del 2-toro. Lo interesante aquí es que hay distintos valores de $\tau$ que dan lugar al mismo 2-toro con la misma estructura compleja. Por ejemplo, $\tau$ y $\tau+1$ generan la misma red. Y lo mismo ocurre con $1/\tau$, siempre que reescalemos el tamaño de la cuadrícula para que su altura sea la misma que antes.
The modular transformations on the torus with modular parameter τ .
El conjunto de todas las transformaciones que podemos hacerle a $\tau$ de forma que sigamos teniendo el mismo toro es un grupo, denominado grupo modular. El conjunto de todas las posibles estructuras complejas distintas de un 2-toro no es por tanto todo el plano complejo (no es el conjunto de todos los valores de $\tau$), sino que es el conjunto de todos los valores de $\tau$ que no son equivalentes entre sí mediante una transformación modular. Por ejemplo, podemos coger como dominio fundamental todos los valores de $\tau$ cuya parte real esté entre $-1/2$ y $+1/2$ y cuyo módulo sea mayor que uno:
The fundamental domain of the modular group.

Se puede demostrar que la función que mapea este dominio fundamental con la totalidad del plano complejo es única (salvo algunas transformaciones). A esta función se la denomina función j.

KleinInvariantJ.jpg

En el límite en el que la parte imaginaria de $\tau$ se hace muy grande, la cantidad  $q=\exp (2\pi i \tau)$ se hace muy pequeña, y la función j tiene una expansión en serie de potencias de $q$ de la forma $$
j(\tau)=q^{-1}+744+196884q+21493760q^2+...
$$
Como hemos visto antes, el número 196884 es una unidad mayor que la dimensión de la representación más pequeña no trivial del grupo monstruo. Parece una casualidad, pero no lo es, ya que el siguiente coeficiente de la expansión, 21493760, también coincide con otra suma de dimensiones de representaciones irreducibles de este mismo grupo. A esta sorprendente coincidencia entre dos ramas de la matemática aparentemente desconectadas entre sí (la teoría de funciones complejas y las representaciones de grupos finitos esporádicos) se la llamó monstrous moonshine [Conway1979]. De nuevo, utilizando sólo la doble interpretación algebraica y geométrica de estos objetos fue imposible para los matemáticos encontrar la razón por la que estos números coincidían. Fue necesario explorar el significado físico de estos objetos.

Imaginemos un sistema cuántico ligado. Al ser ligado, tendrá niveles de energía discretos. Por tanto, al calcular la función de partición de este sistema, si llamamos $2\pi\tau_2$ al inverso de su temperatura, al sumar para todos los estados tendremos una serie de potencias de $q=\exp(-2\pi\tau_2)$, donde los exponentes de $q$ serán los niveles de energía en determinadas unidades. Si en ese sistema físico hay cosas que oscilan poco, entonces estos niveles de energía serán proporcionales a números enteros. No obstante, como hemos explicado antes, todos aquellos sumandos que correspondan a estados de la misma energía serán iguales, con la misma potencia de $q$, y se pueden sacar factor común. Los coeficientes de esa serie de potencias van a coincidir con el número total de estados independientes que tengan de energía ese exponente de $q$.

Y, ¿qué ocurre si, además, ese sistema físico tiene como simetría el grupo monstruo? Entonces, el espacio vectorial de todos los estados de ese sistema físico con una energía dada tiene que ser una representación del grupo monstruo. Los exponentes de la expansión en serie de potencias de $q$ de la función de partición del sistema serán, por tanto, ¡las dimensiones de esas representaciones del grupo monstruo!

¿Conocemos algún sistema físico que tenga por simetría el grupo monstruo? Sí. Si cogemos la teoría de cuerdas y la compactificamos en un toro de 24 dimensiones generado a partir de una red especial, denominada Leech lattice, ¡esta teoría física tiene exactamente como simetría el grupo monstruo! Es muy importante que lo que viva en ese toro sean cuerdas. Si fuesen partículas puntuales, la simetría de ese sistema físico sería simplemente la de la red que genera ese toro, que no es el grupo monstruo, sino otro grupo esporádico mucho más pequeño. Pero la magia de la teoría de cuerdas hace que los sistemas físicos tengan simetrías ampliadas, respecto de las que ingenuamente uno esperaría analizando la geometría en la que hacemos que éstas se propaguen.

Ya sólo nos falta, para desvelar el secreto del monstrous moonshine, probar que la función de partición de la cuerda en ese toro sea la función j. Sin entrar en detalles técnicos, podemos comentar aquí que las funciones de partición de los sistemas cuánticos son la continuación analítica de la integral de camino de Feynman, en la que identificamos los estados inicial y final y sumamos para todos ellos. En el caso de una cuerda, esto se corresponde con una sábana de mundo que vuelve sobre sí misma, es decir, una sábana de mundo que tiene la topología de un 2-toro.
La función de partición es, por tanto, una función de la estructura compleja $\tau$ de ese toro, aunque es invariante ante todas las transformaciones modulares. Y en este caso, esta función es precisamente la función j. Si se calculan todos los detalles, se puede ver que el espacio vectorial de todos los estados excitados en el primer nivel forma una representación del grupo monstruo que es suma directa de la representación singlete (trivial), de dimensión 1, y de la representación irreducible más pequeña, de dimensión 196883, y ese es el motivo por el que el coeficiente de $q^1$ está multiplicado por (196883+1). Algo parecido ocurre también con el resto de coeficiente de la expansión de la función j [Borcherds1992], pero mientras que el estudio del grupo monstruo y sus representaciones es muy complicado, los coeficientes de la expansión en serie de potencias de $q$ de la función j son más fáciles de calcular. Este resultado es tan importante que por él le dieron a Richard Borcherds la Medalla Fields en 1998.

Aunque Borcherds en su demostración rigurosa evita mencionar la mayoría de los conceptos físicos que le guiaron, es la teoría de cuerdas la que ha permitido la conexión entre estas dos ramas de la matemáticas: la teoría de representaciones de los grupos esporádicos y la de las transformaciones conformes en el plano complejo. Y el monstruous moonshine no es un ejemplo aislado. Otras compactificaciones de la teoría de cuerdas también explican otras coincidencias de la misma familia que el monstruous moonshine. De hecho, este asunto ha desencadenado una auténtica revolución en matemáticas de donde ha salido toda una rama nueva: el de las álgebras Kac-Moody generalizadas. Las relaciones entre coeficientes de funciones especiales, la teoría de cuerdas y las representaciones de grupos son a día de hoy un campo activo de investigación, llevado a cabo tanto por matemáticos como por físicos teóricos.

¿Dónde está la clave de este éxito de la física teórica en producir estos regalos valiosísimos para los matemáticos? Todos estos ejemplos que acabamos de mencionar nos indican que la clave está en el hecho de que en mecánica cuántica los físicos utilizamos la integral de camino de Feynman para hallar las probabilidades de los distintos resultados de los experimentos y los valores esperados de los observables, y también para calcular las funciones de partición de los sistemas físicos al hacer la continuación analítica hacia la signatura euclídea. Al sumar las amplitudes de probabilidad para todos los caminos, los estamos considerando a todos a la vez dentro del mismo objeto matemático. Para Dijkgraaf, "este enfoque holístico de considerar todo en un sólo paquete está acorde con el espíritu de la matemática moderna, donde el estudio de las categorías de objetos está más enfocado hacia las relaciones mutuas entre objetos que hacia algún ejemplo individual específico. Es esta vista de pájaro de la teoría cuántica la que nos trae estos resultados tan sorprendentes."


Conclusión


Analizar sólo el álgebra y la geometría, y olvidarte de la física, conlleva una versión estrecha de los objetos matemáticos. Aunque la forma que tenemos los físicos de abordar los problemas es considerada todavía por muchos matemáticos como el "lado oscuro" de su disciplina, lo cierto es que ésta les proporcionaría un poder casi ilimitado si no la despreciaran tan habitualmente.


Para poder comprender de verdad los grandes misterios del pensamiento racional, uno debe estudiar todos sus aspectos, no sólo la visión dogmática y limitada de los matemáticos. Cualquier estudiante de matemáticas que aspire a llegar a ser un a pensador completo y sabio debe abarcar un punto de vista más amplio de la matemática, aquel en el que, además de tener presente el significado algebraico y geométrico de los objetos matemáticos, se considere también el significado físico de los mismos. En particular, la teoría de cuerdas es hoy en día una fuente de resultados fascinantes y líneas nuevas de investigación en matemáticas. Nadie puede estar al día acerca del estado actual de la matemática moderna si se empeña en ignorar este hecho.

Hemos empezando este post con la gráfica de una función:

He enseñado esta gráfica durante años a muchas personas mayores que han estudiado matemáticas y les he preguntado si les daba miedo.

—¿por qué habría de asustar la gráfica de una función? Las matemáticas no me dan miedo. Soy matemática— me responden normalmente.

Pero esta gráfica no es la representación de una función matemática que vive en el mundo de las ideas de Platón. El mundo de los objetos matemáticos no existe. Álgebra, geometría y física son la misma cosa. Este dibujo en realidad representa...

|
|
|
|
|
|
|
V

Sigue bajando

|
|
|
|
|
|
|
V

una serpiente boa que digiere un elefante:




Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

Referencias bibliográficas

  • Arnold V.I. (1998) "On teaching mathematics". Uspekhi Mat. Nauk 53 (1998), no. 1, 229-234.
  • Borcherds, Richard. (1992). "Monstrous moonshine and monstrous Lie superalgebras". Inventiones Mathematicae. 109. 405-444. 10.1007/BF01232032.
  • Conway J. H., Norton S. P. (1979), "Monstrous Moonshine", Bulletin of the London Mathematical Society, Volume 11, Issue 3, October 1979, Pages 308–339, https://doi.org/10.1112/blms/11.3.308.
  • Dijkgraaf, Robert (2014) "The Unreasonable Effectiveness of Quantum Physics in Modern Mathematics". Lecture given in Perimeter Institute for Theoretical Physics. March 5th, 2014
    Mathematics
  • González Urbaneja P. M. (2003). Los orígenes de la geometría analítica. Materiales de historia de la ciencia Vol. 6, Fundación Canaria Orotava.
  • Hori, K., S. Katz, A. Klemm, R. Pandharipande, R. Thomas, C. Vafa, R. Vakil, and E. Zaslow, (2003), Mirror symmetry, American Mathematical Society.
  • Witten, E., (1989), “Quantum field theory and the Jones polynomial,” Commun. Math. Phys. 121, 351.