4 dic. 2019

¿Dónde se esconden las relaciones de indeterminación en la integral de camino de Feynman?


En las formulaciones de Heisenberg y de Schrödinger de la mecánica cuántica, los observables están representados por operadores hermíticos en el espacio de Hilbert de todos los posibles estados cuánticos. Sus autovalores son los posibles resultados al realizar la medición del observable, y sus autovectores son los estados cuánticos en los que ese observable toma un valor bien definido. Si llamamos $\hat{A}$ a uno de estos operadores, el estado cuántico $|\psi\rangle$ en el que se encuentra el sistema será, en general, una superposición de autoestados correspondientes a diferentes autovalores de $\hat{A}$, de tal manera que, en ese estado cuántico, el observable correspondiente a $\hat{A}$ no toma un valor bien definido. Es importante remarcar que lo que ocurre no es que el sistema cuántico sí tiene un valor de $\hat{A}$, pero que está oculto para nosotros. Lo que pasa en este caso es que, en ese estado cuántico, entre las propiedades del sistema no está el tomar un valor de $\hat{A}$ bien determinado.

Cualquier estudiante que esté en el ecuador de sus estudios universitarios de Física sabe que el grado de indeterminación del observable $\hat{A}$ en ese estado cuántico $|\psi\rangle$ se puede cuantificar como el módulo de un vector $|\psi_A\rangle$ $$
\Delta A = | |\psi_A\rangle | \>,
$$ donde $|\psi_A\rangle$ es un vector que se obtiene, a partir de $|\psi\rangle$, realizando la operación $$
|\psi_A\rangle= (\hat{A}-\langle A\rangle \hat{I})|\psi\rangle \>.
$$ Aquí $\hat{I}$ es el operador identidad, y$$
\langle A\rangle = \langle \psi | \hat{A} |\psi \rangle
$$ es el valor esperado de $\hat{A}$ en el estado $|\psi\rangle$. Es sencillo comprobar que, si realizamos muchas mediciones de $\hat{A}$, estando en todas ellas el sistema previamente en el estado $|\psi\rangle$, entonces $\Delta A$ coincide con la desviación típica de los resultados $$
\Delta A= \sqrt{\langle A^2\rangle-\langle A\rangle^2}
$$

La característica principal que tiene la mecánica cuántica, que la hace completamente diferente a la física anterior, es que los operadores que se utilizan para describir los observables físicos en general no conmutan. Si llamamos $\hat{B}$ a uno de los operadores que no conmuta con $\hat{A}$ $$
[\hat{A},\hat{B}]\neq 0
$$ entonces se puede ver que la desigualdad de Schwarz, aplicada a los estados $| \psi_A\rangle$ y $| \psi_B\rangle$, $$
\langle \psi_A | \psi_A \rangle \langle \psi_B | \psi_B \rangle \geq  | \langle \psi_A | \psi_B \rangle |^2 \geq (\operatorname{Im} \langle \psi_A | \psi_B \rangle )^2 \>,
$$ conduce a la relación de indeterminación $$
\Delta A \Delta B \geq \frac{1}{2} |\langle  \psi | [\hat{A},\hat{B}]   |\psi  \rangle|
$$
El significado físico de esta relación es que, si el conmutador es no nulo, es imposible encontrar algún estado cuántico en el que ambos observables estén bien determinados y, cuanto más determinado esté el observable $\hat{A}$ en un estado cuántico, más indeterminado estará $\hat{B}$ en ese estado, ya que el producto de las indeterminaciones no puede ser inferior a $\frac{1}{2} |\langle  \psi | [\hat{A},\hat{B}]   |\psi  \rangle|$. Por ejemplo, si tomamos $\hat{A}=\hat{x}$ y $\hat{B}=\hat{p}$, como el conmutador entre la coordenada $\hat{x}$ y su momento correspondiente $\hat{p}$ es $$
[\hat{x}, \hat{p}] = i\hbar \hat{I}
$$ lo que se obtiene es la famosa relación de indeterminación de Heisenberg $$
\Delta x \Delta p \geq \frac{\hbar}{2}
$$
Sin embargo, hay otra formulación de la mecánica cuántica, equivalente a la de Heisenberg y a la de Schrödinger, en la que los observables no entran como operadores en el espacio de Hilbert de estados cuánticos. Se trata de la formulación de la integral de camino de Feynman. Para una persona que no conozca esta formulación de la mecánica cuántica, puede ser conveniente estudiar qué ocurre en un caso sencillo, como el interferómetro de Mach-Zehnder, donde se produce interferencia entre dos caminos. Para saber si esta interferencia es constructiva o destructiva hay que estudiar la diferencia entre las fases asociadas a cada camino, teniendo cuidado de no equivocarnos en el cálculo de cada una de las fases. Con este ejemplo sencillo se puede ver con claridad que, para que las probabilidades de que el fotón llegue a los distintos detectores sumen uno, lo que hay que sumar de cada camino para calcular la interferencia no es la probabilidad, sino la amplitud de probabilidad.



Dado que los dos caminos en el interferómetro contribuyen al patrón de interferencias, tenemos que admitir que el fotón que es detectado por el detector en el que hay interferencia constructiva no ha seguido ninguno de los dos camino de forma bien definida: entre las propiedades del fotón no está el haber seguido una trayectoria bien determinada. Podemos colocar los detectores de otra manera, para comprobar si el fotón se refleja o no en el primer espejo semireflector, pero entonces el observable que antes sí tomaba un valor bien definido (el que decía que el fotón acabará con probabilidad 1 en el detector donde se producía interferencia constructiva), ahora ya no toma ningún valor bien definido. Tenemos así un ejemplo sencillo de dos observables incompatibles, como $\hat{A}$ y $\hat{B}$ en el ejemplo anterior.

De todo esto se deduce que, para poder calcular la amplitud de probabilidad de que el fotón llegue, desde la fuente $a$ hasta un detector $b$ que haya en el interferómetro de Mach-Zehnder, hay que sumar las amplitudes de probabilidad asociadas a cada camino. $$
\Phi(a,b)=\Phi_1+\Phi_2
$$
Pero, ¿qué ocurre si vamos modificando el experimento poco a poco para que cada vez sean más los caminos accesibles al fotón? En ese caso tenemos $$
\Phi(a, b) = \sum _{{\rm todos \>  los \>caminos \> desde} \> a \> {\rm hasta} \> b} \>
\Phi_i \>.
$$ Todos los caminos tienen que contribuir con una amplitud de probabilidad $\Phi_i$ del mismo módulo, pero con argumentos (fases) distintos, para que pueda haber interferencias. Como, además, estos $\Phi_i$ tienen que ser funcionales del camino $x(t)$, podemos escribir $$
\qquad \Phi(a, b) = \sum _{{\rm todos \>  los \>caminos \> desde} \> a \> {\rm hasta} \> b} \> e^{i S [x (t)] / \hbar} \>, \qquad
$$ donde $S[x(t)]$ es la fase asociada al camino $x(t)$, multiplicada por $\hbar$ para que tenga unidades de acción. Al tratarse de un continuo de caminos, este sumatorio tiene que ser, en realidad una especia de integral, $$
\Phi(a, b) = \int_{x(t_a)=x_a}^{x(t_b)=x_b} {\cal D}x(t) \> e^{i S[x(t)]/\hbar}\>,
$$ y este es el motivo por el que se le denomina integral de camino de Feynman.

Una de las ventajas que tiene la formulación de la integral de camino de Feynman es que en ella se ve con claridad por qué los números complejos son necesarios en mecánica cuántica. Es el hecho de que la fase asociada a cada camino sea el argumento de un número complejo lo que hace que pueda haber interferencias, ya que, al crecer ésta, la dirección a la que apunta ese número complejo va girando sin que por ello éste cambie de módulo.

Aquellos caminos cuyas amplitudes asociadas sean números complejos de argumento similar dan lugar a interferencia constructiva, de la misma manera que las fuerzas que se aplican sobre un objeto en una misma dirección colaboran para acelerar ese objeto en esa dirección.
En cambio, aquellos caminos cuyas amplitudes tengan argumentos que difieran en $\pi$ radianes darán contribuciones a la amplitud de probabilidad opuestas y se cancelarán, dando interferencia destructiva, de la misma manera que fuerzas del mismo módulo que se aplican en sentidos opuestos sobre un cuerpo no contribuyen a acelerarlo.

Otra de las ventajas de esta formulación es que con ella el límite clásico ($ \hbar \to 0 $) se puede hacer de forma inmediata, ya que, cuando las acciones de todos los caminos son mucho mayores que $\hbar$ ($ S \gg \hbar $), lo que tenemos son giros muy rápidos de los números complejos, incluso aunque correspondan a trayectorias muy parecidas. Se puede decir que cada camino da lugar a un número complejo del mismo módulo, pero de dirección aleatoria.
Al sumar todos estos números complejos que apuntan en todas direcciones se obtiene cero (interferencia destructiva al sumar todos esos caminos), salvo para aquellos caminos cuya fase sea estacionaria  $$
\delta S = 0 \>,
$$ ya que entonces los caminos cercanos a ellos tiene una fase muy parecida, con lo que no hay cancelación. Es decir, en este límite los únicos caminos que contribuyen son los que está muy cerca del camino que hace extrema a S. Vemos, por tanto, que en el límite clásico $S$ se comporta como la acción, y por eso la podemos identificar como la acción de la teoría clásica que surge como el límite $ \hbar \to 0 $ de la teoría cuántica con la que estamos trabajando. En este límite sí podemos decir que la partícula ha seguido una trayectoria más o menos bien definida: la que hace a la acción extremal.

Pero volviendo a las condiciones en las que las acciones no son mucho más grandes que $\hbar$, es decir, a las condiciones en las que los efectos cuánticos sí son importantes, nos surge la siguiente pregunta. Dado que la formulación de Feynman de la mecánica cuántica es equivalente a las de Heisenberg y Schrödinger, las relaciones de indeterminación tienen que estar escondidas en algún sitio. Una característica sorprendente de las integrales de camino es que con ellas se trabaja con números reales y complejos, en vez de con operadores que no conmutan. ¿Dónde están escondidas, por tanto, las relaciones de indeterminación en esta formulación? Eso es lo que vamos a analizar en este artículo.

6 nov. 2019

El anumerismo de la verdadera derechita cobarde

Vamos a empezar una clase de 3° de ESO. Si escribimos la masa de la Tierra en kilogramos y en notación científica$$
5,972 × 10^{24}
$$¿cuál de todos estos números es el más importante? Para los lectores de este blog esta pregunta puede parecer demasiado básica, pero la realidad es que es muy fácil encontrar personas a las que esta pregunta les supone un reto. Si os encontráis en la tesitura de tener que explicarle la respuesta a alguna de estas personas o a algún estudiante de ESO, os recomiendo que deis una pista. Imaginad que todos los seres vivos de la Tierra se cambian de planeta. La masa de todos ellos, de nuevo en kilogramos, es de unos$$
5,5 × 10^{14}
$$¿Cuál sería la nueva masa del planeta Tierra? Para poder apreciar la diferencia te tienes que ir a 10 cifras significativas. El motivo es que estamos restando dos números de órdenes de magnitud, 24 y 14, muy distintos. $10^{24} - 10^{14}$ es prácticamente $10^{24}$.

Ahora pensad en el cuñado que en la cena de Nochebuena te cuenta que se ha comprado un BMW de alta gama por $10^5$ euros y que está muy contento porque le han dado un vale para que haga la primera recarga de gasolina gratis. ¿Alguien sería capaz de tomar la decisión de aceptar determinada oferta en un concesionario porque te regalan la primera recarga de gasolina? Una cosa es no entender bien el concepto de orden de magnitud, y otra que esta ignorancia te lleve a tomar decisiones irracionales con tu propio dinero. Si encontramos a alguien así, y no le tenemos demasiado aprecio, parece que este asunto es para tomárselo a cachondeo, ¿verdad?

La cosa ya no hace tanta gracia cuando escuchas en los medios de comunicación declaraciones de los políticos de ultraderecha como ésta:

30 oct. 2019

Conferencia. "Agujeros Negros en Nuestros Superconductores". Prof. Daniel Areán

  Viernes 15 de Noviembre 2019
  19:30
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "Agujeros Negros en Nuestros Superconductores"
 Ponente Prof. Daniel Areán
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


La Teoría de Cuerdas nos ha proporcionado una nueva herramienta para entender sistemas en la frontera de la física teórica: la Correspondencia Holográfica. Esta teoría quizá nos permita describir sistemas tan interesantes como los superconductores de alta temperatura en términos de ... agujeros negros!

Conferencia. "El origen de la materia oscura". Prof. Guillermo Ballesteros

  Viernes 15 de Noviembre 2019
  18.00
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "El origen de la materia oscura"
 Ponente Prof. Guillermo Ballesteros
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


¿Qué es la materia oscura? La respuesta más breve y sencilla es que no lo sabemos. Sin embargo, sí que sabemos algunas cosas sobre ella; por ejemplo, que es unas seis veces más abundante en el Universo que la materia de la que estamos hechos nosotros. En esta charla hablaremos de cómo podemos desvelar las propiedades de esta materia (que tal vez deberíamos llamar "invisible") y de las ideas básicas existentes para explicar su origen.

29 oct. 2019

Conferencia. "De los lápices a las antipartículas". Prof. Ángel Uranga

  Jueves 14 de Noviembre 2019
  19:30
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "De los lápices a las antipartículas".
 Ponente Prof. Ángel Uranga
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


En esta charla realizaremos un viaje desde experiencias muy cotidianas como la imagen un lápiz distorsionada por la refracción de la luz hasta el mundo subatómico de las partículas y antipartículas, pasando por los extraños fenómenos en Mecánica Cuántica, como en el experimento de la doble rendija.

Conferencia. "¿Dónde y cómo buscar a la materia oscura?". Prof. Ángeles Moliné.

  Jueves 14 de Noviembre 2019
  18.00
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "¿Dónde y cómo buscar a la materia oscura?
 Ponente Prof. Ángeles Moliné.
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


Una gran cantidad de evidencia sobre la existencia de la materia oscura se ha acumulado a partir de observaciones astrofísicas y cosmológicas. En las últimas décadas, un gran esfuerzo se ha centrado en la comprensión de su naturaleza así como en su detección. En esta charla, daré una breve descripción sobre cómo y dónde buscar esta misteriosa materia de nuestro universo.

28 oct. 2019

Conferencia. "¿Es la gravedad una interacción fundamental?". Prof. Enrique Álvarez

  Viernes 8 de Noviembre 2019
  19:30
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título ¿Es la gravedad una interacción fundamental?
 Ponente Prof. Enrique Álvarez
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


Se discutirán los argumentos en favor de que la gravitación es una teoría emergente a distancias macroscópicas desde una teoría desconocida que determina la dinámica a distancias muy pequeñas.

Conferencia. "Invisibles en el Cosmos....e Invisibles en la Ciencia". Prof. Olga Mena

  Viernes 8 de Noviembre 2019
  18.00
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "Invisibles en el Cosmos....e Invisibles en la Ciencia"
 Ponente Prof. Olga Mena 
 Institución (U. Valencia & IFIC)
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


En esta charla aprenderemos sobre los "Invisibles" de nuestro Cosmos,
como la materia y energía oscuras, y cómo estudiar las huellas que han
dejado para que pasen a ser, no visibles, pero al menos, más
conocidos. ¡Es sólo así cómo podremos descifrar el futuro de nuestro
universo! "Invisible" ha sido el papel de ciertas astrónomas cuyo
legado científico también compartiremos.

27 oct. 2019

Conferencia. "Lo grande y lo pequeño: ¿Hay realmente diferencia?". Prof. Antonio González-Arroyo

  Jueves 7 de Noviembre 2019
  19:30
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "Lo grande y lo pequeño: ¿Hay realmente diferencia?"
 Ponente Prof. Antonio González-Arroyo
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


Un paseo poco convencional por el mundo de las escalas. ¿Que
significan a la luz de la fisica clasica, las matemáticas, y la física
moderna? Eso nos permitirá descubrir su relevancia y sus misterios.

Conferencia. "Partículas fantásticas y dónde encontrarlas: Buscando al bosón de Higgs en el LHC" Prof. José Miguel No.

  Jueves 7 de Noviembre 2019
  18.00
  Residencia de Estudiantes del CSIC
 Organiza Instituto de Física Teórica UAM-CSIC
 Tipo de evento Conferencia de divulgación
 Título "Partículas fantásticas y dónde encontrarlas: Buscando al bosón de Higgs en el LHC"
 Ponente  Prof. José Miguel No
 Institución Instituto de Física Teórica UAM-CSIC
 ¿Necesario confirmación? No
 Más información https://workshops.ift.uam-csic.es/horizonte/Programa


El acelerador LHC (por Large Hadron Collider) del CERN es la mayor máquina construida por el ser humano, con el objeto de explorar las propiedades básicas de la naturaleza, la posible existencia de nuevas partículas y sus interacciones con las ya conocidas. En 2012, tras muchos años de búsqueda experimental, se descubrió el bosón de Higgs en el LHC, y ahora se estudian sus características. Os propongo un viaje (imaginario!) al LHC para entender como sabemos de la existencia del bosón de Higgs, y como se investiga la posibilidad de que existan otros “Higgses”.

23 oct. 2019

"Divulgación científica" que confunde en The Conversation

The Conversation es una plataforma de divulgación en la que el contenido lo producen expertos vinculados a universidades y centros de investigación. Esta plataforma trabaja con medios de referencia que utilizan las publicaciones elaboradas por estos expertos como necesario complemento para las informaciones elaboradas por los periodistas. Está gestionada por The Conversation Media Group, que es una organización sin ánimo de lucro del sector de la educación que recibe dinero de gobiernos, universidades, centros de investigación y empresas privadas.

La sección española nació en 2018, y está dirigida por el periodista Rafael Sarralde (@rafasarralde). En su primer año de vida ha publicado más de 880 artículos que han superado los 10 millones de lecturas. Sale a una media de más de 10000 lecturas por artículo. He leído algunos de estos artículos y muchos son de calidad, aunque hay algunos bastante malos.

Hoy me he encontrado precisamente con uno que, además de no tener la calidad que debería caracterizar a este tipo de plataformas, considero que su lectura hace más mal que bien a los estudiantes universitarios y de bachillerato que todavía no dominan la física moderna. Se trata del artículo "La relatividad de Einstein también obliga a redefinir el concepto de masa" de Manuel D. Barriga-Carrasco, profesor del Área de Mecánica de Fluidos de la Escuela Técnica Superior de Ingenieros Industriales en la Universidad de Castilla-La Mancha, según esta misma plataforma.



El artículo, a pesar de ser corto, está plagado de párrafos que inducen a la confusión a los estudiantes, algunos de ellos rotundamente falsos. Voy a intentar explicar, punto por punto, por qué estos párrafos, que constituyen la mayor parte del artículo, no deberían formar parte de un artículo de divulgación científica.

20 oct. 2019

El impacto de la relatividad en el pensamiento


1919 eclipse positive.jpg

En educación se denomina cambio conceptual al cambio de cosmovisión que experimentan los estudiantes cuando aprenden un nuevo contenido científico sobre algún fenómeno que echa por tierra las ideas previas que tenían sobre ese fenómeno. Un ejemplo sencillo lo tenemos cuando enseñamos a los alumnos que no se pueden separar los polos de un imán. Si partimos un imán en dos trozos, el resultado no es dos monopolos magnéticos separados, sino dos nuevos imanes, cada uno de ellos con su polo norte y su polo sur. Este hecho, que les parece "mágico" a los estudiantes cuando tienen una visión del imán como si fuera una especie de dipolo eléctrico, se vuelve natural cuando los estudiantes aprenden que las líneas de campo magnético son cerradas. El polo sur no es más que la parte del imán por donde entran las líneas. Si partimos el imán, hay una nueva zona por donde entran las líneas, con lo que podemos decir que se ha "creado" un nuevo polo sur. Y lo mismo podemos decir del nuevo polo norte, es una nueva zona por donde salen las líneas de campo. Una vez el estudiante ha experimentado ese cambio conceptual que le lleva a ver al imán como un conjunto de líneas de campo cerradas, las propiedades de éstos se entienden mucho mejor.
Magnetic dipole moment.jpg


Este cambio conceptual es algo que tienen que experimentar los alumnos por ellos mismos. Es un paso que no pueden dar los profesores por ellos. Este es el motivo por el que, en muchas de las metodologías constructivistas que los profesores ponemos en práctica en la escuela, la acción de los profesores pasa fundamentalmente por provocar en los alumnos conflictos cognitivos que les generen motivación intrínseca. Resolviendo esos conflictos cognitivos es como los estudiantes experimentan el cambio conceptual que les lleva a aprender ese nuevo contenido científico.

Como señalaron los historiadores de la ciencia A. Koyré y T. Kuhn, el mismo desarrollo histórico de loa ciencia está lleno de cambios conceptuales profundos que experimentaron los científicos. Se trata de las revoluciones científicas que, en la terminología kuhniana, implican cambios de paradigmas que redefinen de nuevo lo que se considera científico y lo que no.

Un ejemplo clásico lo podemos encontrar en el paso de la física aristotélica a la mecánica newtoniana. Para los aristotélicos, que creían que un cuerpo pesado se desplazaba, por su propia naturaleza, de una posición superior a una más baja hasta llegar a un estado de reposo natural, un cuerpo que se balanceaba simplemente estaba cayendo con dificultad. Desde este punto de vista, de los infinitos experimentos que se pueden hacer con un péndulo, a uno se le ocurre medir, por ejemplo, el tiempo que éste tarda en pararse. Dado que sabemos hoy que este tiempo depende del rozamiento que experimente el péndulo, difícilmente podemos obtener una ley física interesante de este dato. Galileo, por otra parte, al observar el cuerpo que se balanceaba, vio un movimiento periódico, un cuerpo que casi lograba repetir el mismo movimiento, una y otra vez. Este cambio conceptual hace que a uno se le ocurra medir el periodo del péndulo, que, sabemos hoy en día, está relacionado con la intensidad del campo gravitatorio en el lugar donde se encuentra el péndulo. Gracias a este nuevo punto de vista, Galileo observó también otras propiedades del péndulo y construyó muchas de las partes más importantes y revolucionarias de su nueva mecánica. Por tanto, es a Galileo a quien hay que atribuir el mérito de conseguir este original cambio de visión. Pero nótese que este mérito no se manifiesta en este caso como observación más exacta u objetiva del cuerpo que se balancea. En cuanto a la capacidad descriptiva se puede decir que la percepción aristotélica tenía la misma exactitud. El mérito de Galileo en este caso radica en ser capaz de mirar al péndulo como nadie lo había visto antes.

Sin embargo, estos cambios de paradigmas no son exactamente iguales a los cambios conceptuales que experimentan los estudiantes cuando aprenden ciencia. En primer lugar, en muchos casos la revolución científica ocurre muchas veces sin que muchos científicos e intelectuales experimenten el cambio conceptual. Un ejemplo clásico es el de los astrónomos geocentristas que murieron sin aceptar el uso del telescopio como instrumento útil para la astronomía, instrumento cuyo uso se acabó imponiendo porque los jóvenes abrazaron el uso de esta nueva tecnología. En segundo lugar, porque en el desarrollo real de la ciencia no hay siempre una figura clara de autoridad, como ocurre en el aula con el profesor, que orienta las actividades con el objetivo de llegar a ese cambio conceptual. Para que el nuevo paradigma triunfe entre la comunidad científica son necesarias fuertes discusiones científicas que duran varios años y nuevos datos experimentales que requieren tiempo. A su vez, para que este nuevo paradigma llegue al resto del mundo intelectual y al resto de los ciudadanos hace falta una divulgación científica de calidad que raramente se da.

En este artículo vamos a analizar cómo fue el cambio de paradigma de la física newtoniana a la física relativista, estudiando el impacto que tuvo sobre el pensamiento tanto el surgimiento de la Teoría Especial de la Relatividad (TER), en 1905, como la Teoría General de la Relatividad (TGR), en 1915. Sin embargo, para ello es importante dar primero algunas pinceladas sobre cómo fue el proceso de difusión de estas dos teorías, ya que éste condicionó las distintas opiniones y comentarios que sobre ellas se hicieron. Debido a la primera guerra mundial (1914-1918), la difusión de la relatividad especial, sobre todo entre los no-científicos, se vio retrasada, coincidiendo con la difusión de la relatividad general, de forma que las dos teorías se discutieron prácticamente al mismo tiempo.

23 sept. 2019

TÉCNICAS EXPERIMENTALES: Ajuste por el método gráfico

Si sospechamos que las magnitudes físicas $x$ e $y$ está correlacionadas mediante la función $y=f(x)$, podemos representar en una gráfica el valor de $y$ que hemos medido para cada valor de $x$. ¿Cómo podemos saber si los puntos obtenidos en esa gráfica, con sus rectángulos de error, se ajustan a la curva que predice la ley $y=f(x)$?

17 sept. 2019

La mayoría de la población no tiene motivos para idolatrar a los grandes científicos


Solvay conference 1927.jpg


El Proyecto de Genealogía de Matemáticas (Math Genealogy Project) es un proyecto muy ambicioso del Departamento de Matemáticas de la Universidad de Dakota del Norte, en colaboración con la American Mathematical Society, que pretende recopilar información sobre todos los científicos de todo el mundo y de todas las épocas que han recibido un doctorado en matemáticas.

Además del título de la tesis, la universidad y el año, uno de los datos más interesantes que se puede analizar en esta base de datos es quién dirigió la tesis a quién. Así, el proyecto permite construir el árbol genealógico de todos los matemáticos.

La idea de escribir este post me ha venido cuando me han regalado el póster con mi árbol genealógico:



Como indica la misma página del proyecto, es cierto que la relación entre el director de tesis y sus doctorandos no siempre ha sido tan formal como lo es ahora, pero este árbol sí nos da una idea de una cierta relación mentor/discípulo que nos permite trazar la historia intelectual de los proyectos de investigación en matemáticas.

Lo primero que llama la atención del póster es que entre los ancestros de Werner Heisenberg, el científico más brillante de todos los que desarrollaron la mecánica cuántica, podemos encontrar un porcentaje importante de los grandes físicos y matemáticos de la historia, desde Copérnico, Huygens y Leibniz, hasta Sommerfeld y Klein, pasando por Gauss, Pfaff, Dirichlet, Fourier, Poisson, Lagrange, Laplace, Euler, D'Alembert, Bernoulli entre muchos otros. Científicamente hablando, ¡todos son familia! ¿Es casualidad? Es evidente que no. Los avances en matemáticas no son tan dependientes de poder trabajar en una universidad con caros equipos de laboratorio, como ocurre en otras disciplinas más experimentales. Tiene que haber un motivo.

Un gran científico no le dirige la tesis a cualquiera, así que la primera hipótesis es que, de todos los candidatos, sólo a los mejores, a los que superan unas duras pruebas, se les permite formar parte de esa familia científica. Como sólo los mejores entran, está más o menos garantizado que la mayor parte de los grandes avances en matemáticas que se van a hacer van a ser realizados por miembros de esa familia.

15 sept. 2019

TÉCNICAS EXPERIMENTALES: Medida múltiple y su aplicación al cálculo de errores.

Ya hemos visto que, cuando estamos realizando una medición de una magnitud física $x$ y el error aleatorio no es despreciable, lo que debemos hacer es tomar varias medidas y quedarnos con el valor medio de todas ellas. Pero, ¿qué incertidumbre experimental debemos asignarle a ese resultado?

Lo que la mecánica cuántica nos enseñó acerca de la invariancia gauge

De todas las interacciones de la naturaleza, la que se estudia en mayor detalle en la universidad en los denominados grados STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) es la electromagnética. Todos los estudiantes que entran en estos grados saben ya desde Bachillerato que sobre toda partícula con carga $q$ y velocidad $\vec{v}$ sometida a un campo electromagnético se ejerce siempre una fuerza (denominada fuerza de Lorentz) de valor $$
\vec{F}=q\vec{E}+q\vec{v}\times \vec{B}
$$ donde $\vec{E}$ es valor del campo eléctrico en el punto donde está situada la partícula y $\vec{B}$ el campo magnético. Esto implica que, en el caso de que la partícula sea no relativista, la ecuación diferencial que describe su movimiento es, si la fuerza de Lorentz es la única que actúa:
$$
m\vec{a}=q\vec{E}+q\vec{v}\times \vec{B}
$$ donde $m$ es la masa de la partícula y $\vec{a}$ es su aceleración.

Por otro lado, ya en la universidad los estudiantes aprenden que esta ecuación de movimiento se puede obtener imponiendo que el camino que tiene que seguir la partícula entre los puntos espaciotemporales $(t_i, \vec{r}_i)$ y $(t_f, \vec{r}_f)$ sea aquel que minimiza la acción
$$
S=\int \left(  \frac{1}{2} m v^2 -q\phi \right)dt+  q\int \vec{A}\cdot d\vec{r}
$$ (donde las integrales se realizan entre esos dos puntos espaciotiemporales) siempre que identifiquemos a $\vec{E}$ y $\vec{B}$ con
$$
\vec{E}=-\vec{\nabla} \phi - \frac{\partial \vec{A}}{\partial t}
$$ $$
\vec{B}=\vec{\nabla} \times \vec{A}
$$ Aquí $\phi$ es el potencial eléctrico y $\vec{A}$ es el potencial vector magnético.

Sin embargo, aunque aparecen en la acción, en mecánica clásica tanto $\phi$ como $\vec{A}$ no representan entes reales, no tienen ningún significado físico. Son simplemente campos auxiliares matemáticos que se introducen por pura utilidad para poder calcular mejor los campos $\vec{E}$ y $\vec{B}$. Estos últimos sí tienen significado físico, ya que ejercen fuerzas que podemos medir sobre las partículas cargadas.

Dada una configuración concreta de $\phi$ y $\vec{A}$, si hacemos la transformación (denominada transformación gauge)
$$
\phi^\prime=\phi - \frac{\partial \chi}{\partial t}
$$ $$
\vec{A}^\prime=\vec{A} + \vec{\nabla} \chi
$$ (donde $\chi$ es una función diferenciable arbitraria de $\vec{r}$ y $t$) los campos $\vec{E}$ y $\vec{B}$ se mantienen invariantes y la acción $S$ de la partícula cargada sólo cambia en la cantidad $q(\chi_f-\chi_i)$, que es una constante que no afecta a las ecuaciones de movimiento. Además, las ecuaciones de Maxwell son invariantes bajo una transformación gauge, ya que en ellas parecen $\vec{E}$ y $\vec{B}$, y no los potenciales $\vec{A}$ y $\phi$. Es decir, la nueva configuración que se obtiene al hacer una transformación gauge describe exactamente la misma física que la configuración inicial, con los mismos campos $\vec{E}$ y $\vec{B}$ evolucionando igual y ejerciendo la misma fuerza sobre las partículas cargadas. A esta invariancia que tiene la teoría del campo electromagnético se la denomina invariacia gauge [Landau1992].

Algunas configuraciones gauge son más convenientes que otras para realizar ciertos cálculos, pero es muy importante tener esta invariancia gauge presente para distinguir las cosas que ocurren físicamente en la realidad de lo que son simplemente elementos matemáticos sin existencia física que nos ayudan a hacer los cálculos. La realidad no es lo que los matemáticos y los físicos escribimos en nuestros papeles, y los procesos físicos no son los pasos que realizamos cuando hacemos cálculos. En la teoría clásica del electromagnetismo lo que existe en realidad son los campos $\vec{E}$ y $\vec{B}$ y las partículas cargadas que interaccionan con ellos. Los valores concretos de $\vec{A}$ y $\phi$ no tienen existencia real. Esto lo sabe cualquier estudiante de los grados STEM cuando asigna arbitrariamente el valor de $\phi$ igual a cero voltios al punto que quiere a la hora de resolver los problemas de electrostática. En estos problemas sólo las diferencias de potencial eléctrico entre distintos puntos tienen significado físico, pero no su valor concreto, ya que estas diferencias son las que determinan el campo eléctrico $\vec{E}$.

Sin embargo, el universo en el que vivimos no es clásico. Es cuántico. ¿Siguen siendo en mecánica cuántica las leyes de la física invariantes ante una transformación gauge? ¿Siguen siendo los campos $\vec{E}$ y $\vec{B}$ los que tienen significado físico frente a $\vec{A}$ y $\phi$? Para entender en su totalidad qué ocurre con la invariancia gauge en mecánica cuántica habría que irse al formalismo de la teoría cuántica de campos. Sin embargo, muchas de las ideas cruciales ya se pueden discutir en el contexto de una partícula cuántica no relativista que interacciona con un campo electromagnético clásico. Y eso es lo que vamos a hacer en el presente artículo.


8 sept. 2019

TÉCNICAS EXPERIMENTALES: Propagación de errores

Ya hemos visto que, al medir cualquier magnitud física $x$, siempre tenemos una incertidumbre experimental $\Delta x$. Si ahora utilizamos ese valor medido de $x$ para calcular el valor de otra magnitud $y$ utilizando una ley conocida que nos dice que $y=f(x)$, ¿cuál es la incertidumbre experimental $\Delta y$ que hay que asignar a nuestro resultado?

22 ago. 2019

¿Cuántos personajes femeninos hay en tus problemas de física?

"Un padre y su hijo viajan en coche y tienen un accidente grave. El padre muere y al hijo se lo llevan al hospital porque necesita una compleja operación de emergencia, para la que llaman a una eminencia médica. Pero cuando entra en el quirófano dice: "No puedo operarlo, es mi hijo". ¿Cómo se explica esto?"

A muchos de nosotros nos ha sorprendido esta historia la primera vez que la hemos oído. No porque no pensemos que todas las eminencias medicas sean hombres, sino porque, en la mayoría de las profesiones, siempre asignamos el género masculino por defecto a las personas que las desempeñan.

Esto tiene que ver con lo que estamos acostumbrados a ver y oir desde pequeños, desde los cuentos infantiles hasta los juguetes que se fabrican.

En el siglo XXI, en los clicks de Playmobil sigue siendo difícil encontrar mujeres con uniforme. La mayoría de las profesiones las desempeñan hombres.

Aunque eliminemos del mundo de los niños pequeños todas las actitudes, comportamientos y expresiones machistas, toda nuestra cultura sigue siendo esencialmente masculina. En la inmensa mayoría de las historias de ficción los únicos personajes femeninos que tienen cierto nivel de protagonismo lo son por su vínculo con algún personaje masculino existente, típicamente algún tipo de relación amorosa o de parentesco. Los hombres, en cambio, somos protagonistas por el resto de infinitos motivos. Se trata de una injusticia que ya denunció Virginia Woolf hace 90 años:
"Era extraño pensar que todas las grandes mujeres de ficción fueran, hasta el día de Jane Austen, vistas no sólo desde el otro sexo, sino también únicamente en su relación con el otro sexo. Y qué pequeña es esa parte en la vida de una mujer..." [Woolf1929]

Esta cita de Woolf acabó plasmándose en el cómic Unas lesbianas de cuidado de la dibujante estadounidense Alison Bechdel, dando lugar a lo que hoy en día se denomina test de Bechdel/Wallace [Bechdel2015], en honor a Liz Wallace, que fue quien se lo sugirió a Bechdel (y quien se inspiró en Woolf) [Friend2011]. Se trata de un test muy poco exigente para saber si una obra cumple, no sólo con unos mínimos de presencia femenina, sino también con la condición de que las mujeres estén representadas más allá de lo que sería su relación con los hombres. Este test sólo exige que haya al menos dos personajes femeninos que hablen entre ellos en algún momento sobre algún tema que no involucre a los hombres. La gran cantidad de obras recientes que no superan un test tan poco exigente nos muestra que los avances que se han hecho en este asunto son, aunque existentes, todavía escasos, de tal forma que se puede hablar de que en el siglo XXI seguimos inmersos en un sesgo sistemático contra las mujeres tanto en la literatura como en el cine.

El efecto negativo de esta brecha de género en el comportamiento y expectativas de hombres y mujeres es difícil de cuantificar por lo enorme que es. Es imposible proteger completamente a las nuevas generaciones de este sesgo cultural, porque está en todas partes.

¿Contribuimos los profesores de física a perpetuar estos estereotipos? Ciertamente, hay muchos factores a tener en cuenta, desde la importancia que demos en clase a las contribuciones de las científicas más relevantes, pasando por si tratamos de manera diferente a alumnos y alumnas, hasta la metodología y las dinámicas de clase que establecemos, que nunca son neutrales y siempre benefician a un tipo de estudiantes frente a otros, y muchos otros factores que también son importantes.

En este post nos vamos a centrar sólo en uno de estos factores. Una parte de la actividad creativa de una profesora o un profesor de física consiste en inventarse problemas de papel y lápiz, con situaciones hipotéticas, experimentos mentales o reales, y en seleccionar ejemplos tanto de la vida cotidiana como de ficción para trabajar con ellos los conceptos físicos. Este es el motivo por el que me he entretenido en contar el porcentaje de personajes femeninos y masculinos en 3 libros de texto de Física y Química de 1° de Bachillerato. He anotado el género de los personajes, tanto en los ejemplos e ilustraciones como en los problemas que estos libros proponen a los alumnos.

20 ago. 2019

¿Por qué flotan los astronautas en la Estación Espacial Internacional?

A rearward view of the International Space Station backdropped by the limb of the Earth. In view are the station's four large, gold-coloured solar array wings, two on either side of the station, mounted to a central truss structure. Further along the truss are six large, white radiators, three next to each pair of arrays. In between the solar arrays and radiators is a cluster of pressurised modules arranged in an elongated T shape, also attached to the truss. A set of blue solar arrays are mounted to the module at the aft end of the cluster.


Estamos acostumbrados a ver imágenes de los astronautas de la Estación Espacial Internacional (ISS) flotando en ingravidez, tanto en el interior como en el exterior de la nave. De hecho, la ISS sirve de laboratorio de ingravidez en el que se llevan a cabo experimentos de biología, física y otros campos.

Sin embargo, a lo mejor no nos hemos parado a pensar que la ISS mantiene una órbita alrededor de la Tierra bastante baja, a una altitud de entre 330 y 435 km sobre el nivel del mar, con lo que, de acuerdo con la ley de gravitación universal de Newton, la intensidad del campo gravitatorio allí es, aproximadamente
$g=\frac{GM}{(R+h)^2}=8,9 \frac{m}{s^2}$
donde G es la constante de Newton, y M y R son, respectivamente, la masa y el radio de la Tierra.

Este resultado es sorprendente, si tenemos en cuenta que la intensidad del campo gravitatorio en la superficie terrestre es de $9,8 m/s^2$. Resulta que la intensidad del campo gravitatorio en la ISS es sólo un poco más baja que la que experimentamos nosotros en la superficie de la Tierra. Usando la fórmula $\vec{P}=m\vec{g}$ para el peso de un objeto, vemos que los objetos y los astronautas en la ISS pesan sólo un 10% menos que lo que pesarían en la superficie de la Tierra, y que caen sólo con un 10% menos de aceleración de la que tendrían en caída libre en la superficie de la Tierra. Vamos, prácticamente igual.

Entonces, ¿por qué flotan los objetos y los astronautas en la ISS? La respuesta a esta sencilla pregunta encierra una de las ideas más profundas de la física.

9 jul. 2019

Si vivimos en una simulación informática, ¿dónde están los bits fundamentales?


The.Matrix.glmatrix.2.png


CYPHER.- Te gusta ¿verdad? Te gusta observarlo.
TRINITY.- No seas ridículo.
CYPHER.- Lo vamos a matar ¿Lo has entendido?
TRINITY.- Morfeo cree que él es El Elegido.
CYPHER.- ¿Lo crees tú?
TRINITY.- No importa lo que yo crea.
CYPHER.- No lo crees ¿Verdad?
TRINITY.- ¿Estas seguro de que esta línea está protegida?
CYPHER.-  Sí, por supuesto.
TRINITY.- Me tengo que ir.

A pesar de lo que le están diciendo, la preocupación de Trinity es razonable. Podría ocurrir que haya un agujero de seguridad que hubiera permitido al otro bando pinchar la línea. Si fuera así, el enunciado "esta línea está protegida" sería falso. Llamemos a esta hipótesis, la hipótesis escéptica. Es decir, la hipótesis escéptica dice que es falso que la línea esté protegida, aunque Cypher nos diga que sí lo está. Como Trinity no es capaz de descartar la hipótesis escéptica, no podemos decir que tenga conocimiento de que la línea está protegida. Incluso aunque Trinity haya apostado por que sí lo está, y resulte ser cierto que lo está, no podemos decir que "sabe que lo está". Ya hemos visto en un artículo anterior que para saber algo, no sólo basta con que sea verdad. Son necesarias muchas más condiciones y la primera de ellas es que estemos convencidos de que es verdad, que estemos seguros de ello, que seamos capaces de descartar la hipótesis escéptica. Cada vez que alguien diga que sabe algo, podemos formular una hipótesis escéptica tal que, si es cierta, entonces no es cierto que ese alguien sabe ese algo. El escéptico dirá "¿Estás en condiciones de asegurar que la hipótesis escéptica es falsa?". Si su interlocutor reconoce que no puede descartar la hipótesis escéptica, entonces no podemos decir que sepa ese algo.

Hasta aquí no hay nada que nos sorprenda. Sin embargo, a lo largo de la historia del pensamiento muchos filósofos han ido más allá, siguiendo una tradición que no sólo se limita a la filosofía occidental, y han llegado a afirmar que es posible elaborar una hipótesis escéptica para prácticamente cualquier cosa que un sujeto asegure conocer, de tal manera que este sujeto va a ser incapaz de asegurar al 100% que esa hipótesis es falsa, reconociendo así que realmente no sabe lo que asegura saber. Los ejemplos más conocidos son los del filósofo, físico y matemático francés René Descartes.

5 jun. 2019

¿Qué es la misteriosa constante Ñu de la mecánica cuántica?


Últimamente los físicos en las redes sociales están muy activos hablando de "la constante Ñu de la mecánica cuántica". El detonante ha sido este artículo de EL PAÍS:


En concreto, el último párrafo dice textualmente:


Como he leído que hay personas que han estudiado la licenciatura o el grado de Física, incluso algunos con un doctorado en Física Cuántica, que afirman no haberse encontrado con esa constante en su vida, he decidido escribir este post para aclarar este importante concepto. Lo que viene a continuación no es un texto fácil, pero merece la pena leerlo despacio y al completo si realmente queremos entender el significado físico de los conceptos de la mecánica cuántica.

19 may. 2019

Esta semana en "La noche paradigmática": pseudociencias

El nombre de "pseudociencia" se aplica a toda creencia o práctica que es presentada como ciencia, pero que en realidad no lo es. Esto puede incluir tanto creencias antiguas con cierto arraigo, como la astrología, como nuevas modas, muchas veces impulsadas por colectivos de timadores que pretenden obtener beneficios económicos valiéndose del prestigio de la ciencia. Aquí entran por ejemplo terapias que no funcionan más allá del efecto placebo, como la homeopatía.
A primera vista uno podría pensar que el problema de las pseudociencias es un problema fácil de resolver. Basta con enseñar a la población la diferencia entre lo que es ciencia y lo que no lo es. Y esto podemos hacerlo a dos niveles: con una mejor educación científica en las escuelas, y con una mejor divulgación científica en los medios de comunicación. Como estas dos cosas ya se están haciendo, podríamos ser optimistas y pensar que en la sociedad actual a las pseudociencias y las pseudoterapias les quedan 3 telediarios.
La realidad, sin embargo, es mucho más compleja. ¿Cómo de grave es el problema de las pseudociencias? ¿Estamos cerca de poder resolverlo? Este es el debate que he planteado en la colaboración que he hecho en el último programa (programa 2) de "La noche paradigmática", a partir del minuto 15:

7 ene. 2019

Conferencia. "La nueva astronomía de las ondas gravitacionales". Juan García Bellido.

Semana de la Ciencia, Noviembre 2018

Residencia de Estudiantes, calle Pinar.
 Organiza  Instituto de Física Teórica
 Tipo de evento  Conferencia de divulgación
 Título  La nueva astronomía de las ondas gravitacionales
 Ponente  Juan García Bellido
 Institución  IFT UAM/CSIC
 ¿Necesario confirmación?  No
 Más información  Web del IFT





Conferencia. "Los neutrinos y el universo invisible". Pilar Hernández.

Semana de la Ciencia, Noviembre 2018

Residencia de Estudiantes, calle Pinar.
 Organiza  Instituto de Física Teórica
 Tipo de evento  Conferencia de divulgación
 Título  Los neutrinos y el universo invisible
 Ponente  Pilar Hernández
 Institución  IFIC, Universidad de Valencia
 ¿Necesario confirmación?  No
 Más información  Web del IFT