21 ago 2022

Por qué todos los físicos deberían estudiar unas nociones básicas de supersimetría

 

Luke es un joven inquieto que no se conforma con las cuestiones mundanas que rodean a la granja donde vive. Cuando observa las estrellas por la noche, o la puesta de los dos soles que calientan su planeta, Tatooine, siente la llamada que le lleva a tratar de desvelar los secretos del universo. Afortunadamente para él, un astrónomo retirado, llamado Obi Wan, le proporciona a Luke los datos que obtuvo su padre, Anakin, el mejor observador de cuerpos celestes de su época, acerca del movimiento de los planetas de su sistema solar.

A Luke le han dicho que su padre está muerto. No sabe que abandonó la astronomía para pasarse al lado oscuro. Ahora le lee el futuro al emperador mediante el timo de la astrología. El emperador es un señor muy malvado que paga mejor a los astrólogos que a los astrónomos. Pero Luke se dispone a continuar el trabajo que dejó a medias su padre, y descifrar así las leyes fundamentales del universo.

Los planetas a veces se mueven más rápido y a veces más despacio. Parece difícil encontrar un patrón, una regularidad. Y entonces a Luke se le ocurre una idea muy atrevida: a lo mejor los planetas cambian su velocidad para que el vector que une el astro mayor del sistema con el planeta barra áreas iguales en tiempo iguales.

A estas alturas seguro que usted piensa que es capaz de adivinar cómo continúa la historia. Luke es Kepler, y con los datos de su padre, Tycho Brahe, descubre la ley de las áreas, y también la ley que relaciona los cubos de las distancias con los cuadrados de los periodos. Este impresionante trabajo hace que, unas décadas después, una científica de la nueva generación, Rey, que es bastante más valiente e inteligente que Luke, hace de Newton y, a partir de las leyes de Luke, llega a elaborar unas leyes de la física universales, que explican tanto la caída de una manzana como el movimiento de los planetas.

Pero no. El área barrida por unidad de tiempo es, salvo constante multiplicativa, el momento angular del planeta. La ley de las áreas en realidad es la ley de conservación del momento angular. Gracias al trabajo de la matemática Emmy Noether, sabemos que a toda simetría global continua de un sistema físico le corresponde una ley de conservación. Un caso concreto es la ley de conservación del momento angular. Esta ley se cumple cuando el planeta se mueve en un campo gravitatorio con simetría esférica. Sin embargo, el campo gravitatorio en el sistema solar al que pertenece Tatooine no tiene, ni de lejos, simetría esférica, porque hay dos soles, dos objetos muy masivos cuyos campos gravitatorios no podemos despreciar. Luke gasta mucho dinero y esfuerzo en construir telescopios cada vez más grandes, en medir las posiciones con cada vez mejor precisión. Pero no hay ni rastro de la ley de las áreas. Luke, desesperado por el movimiento caótico de los planetas, acaba en una disputa muy fuerte con un malvado y poderoso astrólogo (Vader), el cual, tras cortarle la financiación, le confiesa que es su padre y le convence para que se una al lado oscuro. Luke dedica el resto de su vida a entretener a los ricos con estupideces astrológicas que nada tienen que ver con la realidad.

En nuestro Sistema Solar, cuando los meses del año quedan los sábados por la noche para jugar al Risk, piden pizzas elípticas y las cortan de tal forma que todos coman la misma porción de pizza más o menos (menos Febrero, al que descaradamente le dan menos). Pero en el sistema solar de Tatooine esto no pasa. 


La analogía no es la que esperábamos. Luke somos nosotros, y la ley de conservación del momento angular de cada planeta es la supersimetría. La supersimetría es una hipotética simetría de la naturaleza que implica que cada grado de libertad fermiónico tiene asociado uno bosónico y viceversa. Al igual que Luke vive en un sistema solar que no tiene simetría de rotación y, por tanto, el momento angular de cada planeta no se conserva, nosotros vivimos en un universo en el que existe el electrón, pero no existe su compañero supersimétrico bosónico, el selectrón. Al menos a las escalas de baja energía en las que hemos explorado el mundo de la física de partículas (bajas comparadas con la escala de Planck) este mundo no es supersimétrico. Por mucho que nos hemos esforzado no hemos encontrado compañeros supersimétricos de las partículas conocidas. ¿Debemos, por tanto, abandonar la idea de la supersimetría? Eso es lo que vamos a analizar en este artículo.


16 ago 2022

Sobre la calidad epistemológica de las pruebas estadísticas

En el último post recomendé el episodio dedicado a Thomas Bayes, del podcast A Ciencia Cierta. Creí preciso ampliar lo que allí se dice acerca de las probabilidades en mecánica cuántica. Pero hay otro asunto sobre el que me gustaría añadir un matiz que considero importante, acerca de otra parte de este episodio, en concreto, los minutos 77 y 80, en los que Anabel Forte explica adecuadamente que es muy importante no confundir la probabilidad condicionada $P(A|B)$ con la otra probabilidad condicionada $P(B|A)$. Hay que agradecer a Forte que ponga tanto empeño en explicar al gran público esta distinción, ya que, desgraciadamente, esta falacia de confundir $P(A|B)$ con $P(B|A)$ es algo que recurrentemente está utilizando la ultraderecha xenófoba cuando, por ejemplo, confunde deliberadamente la probabilidad de que seas un violador siendo un extranjero, con la probabilidad de que seas un extranjero, siendo un violador. Se trata de uno de los múltiples ejemplos de anumerismo de los que se han valido los nazis ya desde hace casi un siglo para propagar su odio.

Otro ejemplo que ilustra lo grave que puede llegar a ser no tratar de forma correcta las probabilidades condicionadas es el que menciona Anabel Forte:
"Un ejemplo muy serio y muy triste es el de Sally Clark, que era una madre estadounidense cuyos hijos fallecieron, primero uno y luego años más tarde el otro, siendo muy bebés, y se la acabó acusando de haberlos asesinado y se la metió en la cárcel. Sally recurrió. Ella decía que no los había matado [...] ¿Cuál es la intuición que se aplicó en ese juicio? Pues que si ella era la culpable, era muy probable que sus dos hijos hubieran muerto. Pero eso no es lo que buscaba. Se buscaba la probabilidad de que ella hubiera sido la culpable, dadas las pruebas. Dado todo lo que había pasado. ¿Qué pasaba en este caso? Pues que el síndrome de muerte súbita es un síndrome que se da en niños muy pequeños, normalmente menores de un año, y que tiene una componente genética. Entonces, realmente, que hubiera fallecido el segundo condicionado a que hubiera fallecido el primero era una probabilidad mucho mayor. Entonces si tu juntabas toda esta información, la probabilidad de que Sally hubiera sido realmente la culpable era mucho más baja, y además se acabó demostrando que no era cierto".

Sin embargo, considero que hay un aspecto importante que se ha omitido en esta tertulia, y a eso quiero dedicar este post. Imaginemos que tenemos en cuenta esta influencia genética en casos como éste, y que se aplica el análisis bayesiano correctamente. Imaginemos que, aun así, nos sigue saliendo que es muy probable que esta mujer sea culpable. Bien, en ese caso tampoco sería adecuado asegurar que tenemos pruebas suficientes para condenarla. El problema es más complicado. ¿Por qué? Vamos a verlo.


11 ago 2022

Las probabilidades bayesianas y la mecánica cuántica

Bayes' Theorem MMB 01.jpg


A Ciencia Cierta es un podcast dirigido y presentado por Antonio Rivera que tiene varias virtudes frente al otro gran podcast de éxito que tenemos en España sobre ciencia, Coffee Break: Señal y Ruido. Además de la calidad de las aportaciones de los contertulios que participan en cada episodio, y que son diferentes en función del tema a tratar, la elección del tema no parece que esté asociada a ninguna noticia reciente ni polémica de moda en medios o redes sociales, lo que da más tiempo para elegir y preparar mejor los temas. Por contra, en A Ciencia Cierta no tienen ni a Francis Villatoro, ni a Gastón Giribet ni a Héctor Socas, y los temas de los que se habla no son tan avanzados como los de Coffee Break.

Uno de los episodios recientes de A Ciencia Cierta que me gustaría recomendar es el de Thomas Bayes, con Pablo Beltrán, Víctor Marco y Anabel Forte. Dejo aquí el enlace:

https://go.ivoox.com/rf/90488602

En este podcast no se habla específicamente sobre física, sino sobre la historia de cómo surgió el teorema de Bayes y por qué es tan importante hoy en día en todas las ramas de la ciencia. Pero entre los minutos 59 y 63, a raíz de un comentario de Anabel Forte, Víctor Marco explica que en mecánica cuántica las probabilidades son intrínsecas a la misma naturaleza, ya que no hay variables ocultas. El mundo es no determinista y por eso la probabilidad es la herramienta que explica la realidad. En mecánica cuántica hay probabilidades que no se deben al desconocimiento que tenemos sobre una realidad subyacente, sino que se deben a que en la misma naturaleza los observables en general no toman valores bien definidos antes de ser medidos. Pero ha sido un comentario demasiado breve, en mi opinión, ya que en seguida los contertulios han pasado a otro tema ajeno a la mecánica cuántica.

Como me ha parecido que dos horas de podcast son poco, voy a intentar en este post aclarar de forma más amplia cuál es la relación entre las probabilidades bayesianas y las mecánica cuántica. Sobre el uso de la fórmula de Bayes para la realización de inferencias y su importancia en filosofía de la ciencia el lector puede consultar este otro post


1 ago 2022

1+1 no es igual a 2

Los que nos dedicamos a la enseñanza estamos ya bastante hartos de recibir la acusación de que las enseñanzas que proporciona la escuela son demasiado teóricas e irreales. Nos dicen que, en el tecnificado mundo actual, una educación más orientada hacia lo práctico, en el que las humanidades, las artes y la parte teórica de las ciencias de la naturaleza jueguen un papel secundario, pudiera preparar para la vida de modo mucho más adecuado. Nos dicen también que no se debería apenas invertir dinero en investigación básica, sino en aquellas investigaciones que tiene como objetivo resolver problemas reales. Se trata de una visión miope de la realidad en la que están atrapados algunos de los que han recibido formación excesivamente aplicada en campos, como la ingeniería, la administración de empresas o el derecho, y no han podido disfrutar del trasfondo teórico de su disciplina.


Es necesario tener claro que ciencias, artes y humanidades no son cosas distintas. Cuando hablamos de humanidades (por ejemplo, la literatura, el arte, la política, la economía), hablamos de cosas que hace el ser humano, a diferencia de los procesos de la naturaleza. Pero resulta que la ciencia también es una humanidad, porque la ciencia la hace el ser humano. La ciencia estudia la naturaleza, pero es una disciplina humanística. Los científicos debemos vernos a nosotros mismos y ser vistos como humanistas, porque es lo que somos, aunque nuestro objeto de estudio no sea el ser humano. Y también debemos vernos como artistas, porque ¿qué son el planteamiento de preguntas, la emisión de hipótesis, la construcción de sistemas teóricos y el diseño de experimentos científicos, sino procesos creativos?

Dado que no son muy conocidas, voy a citar aquí las palabras que escribió sobre este asunto Werner Heisenberg, el físico más brillante de todos los padres de la mecánica cuántica, en su obra La imagen de la naturaleza en la física actual (actual de 1955, claro está). En esta obra Heisenberg reconoce que la formación humanística que recibió fue fundamental para el desarrollo de su actividad científica. Dice Heisenberg:
"toda la energía de nuestra cultura occidental procede y procedió siempre del estrecho enlace de las cuestiones de principio con la actuación práctica. En el dominio meramente práctico, otros pueblos y otras culturas alcanzaron un saber equiparable al de los griegos. En cambio, lo que desde el primer instante distinguió al pensamiento griego de los de otros pueblos fue la aptitud para retrotraer todo problema a una cuestión de principios teóricos, alcanzando así puntos de vista desde los cuales fue posible ordenar la policroma diversidad de la experiencia y hacerla asimilable por el intelecto del ser humano. [...] leer a los griegos significa ejercitarse en el uso de la más poderosa herramienta intelectual que el pensamiento del occidente ha conseguido crear. En este sentido, puede decirse que la educación humanística proporciona también un saber muy útil" [Heisenberg1955].

Dejando a un lado la obsoleta visión eurocéntrica de Heisenberg, me gustaría señalar que el físico alemán sí da en la clave en este texto sobre el motivo por el que ha sido tan fructífero el pensamiento filosófico y científico desde su nacimiento. Desgraciadamente, muchas personas todavía desconocen la importancia de la articulación de este pensamiento en base a primeros principios, y quieren encajonar nuestro conocimiento actual en una simple colección de hechos.

Una de las cosas que estas personas ignoran es que los primeros principios no son acumulativos. Si a un principio de la física teórica le sumamos otro, el resultado no es simplemente dos principios. Si estos principios son incompatibles, el resultado es nada. Pero, si estos dos principios en última instancia se pueden reconciliar, la historia de la ciencia nos dice que esta reconciliación, cuando es no trivial, implica puntos de vista nunca antes vistos que nos llevan a nuevos principios y procesos físicos que inicialmente no parecían ser consecuencia de esos 1+1 principios iniciales. En este caso, la suma 1+1 no es igual a 2, sino una obra de arte intelectual muchísimo mayor.


30 jul 2022

Por qué a toda simetría continua le corresponde una cantidad conservada

EmmyNoether MFO3096.jpg

Uno de los teoremas más importantes en física es el teorema que dice que:

"A toda simetría global diferenciable que tenga un sistema físico le corresponde una cantidad que se conserva"

Este teorema se denomina primer teorema de Noether, en honor a la gran matemática Emmy Noether, quien lo demostró en 1915 en el contexto de la mecánica clásica (tanto relativista como no relativista, pero no cuántica). Por cierto, Noether forma parte del grupo de científicos y profesores punteros en su campo que perdieron su empleo a causa de la intolerancia de los nazis en cuando llegaron al poder, ya que estos inmediatamente aprobaron una ley que impedía a judíos y comunistas trabajar en la universidad y en organismos públicos. Esto ocurrió antes del holocausto y de la segunda guerra mundial. Es importante recordarlo para que no se vuelva a repetir.

Esta relación entre simetrías y leyes de conservación que estableció Noether constituye una de las ideas más potentes que ha tenido el ser humano. Las leyes de conservación son un instrumento muy útil para poder averiguar cómo cambian las magnitudes de un sistema físico con el tiempo. Saber que hay cantidades que no cambian nos permite escribir ecuaciones (igualdades) donde las incógnitas son las magnitudes que sí cambian. Podemos así utilizar las magnitudes que no cambian para averiguar cómo cambian las magnitudes que sí cambian.

Por otro lado, las simetrías de un sistema físico están relacionadas con su aspecto estético. Por ejemplo, una esfera es bella porque, la rotes como la rotes, se queda igual. El teorema de Noether nos relaciona, por tanto, de cierta manera la belleza con la utilidad en física. Pragmatismo y estética van de la mano.

Sin embargo, para el estudiante de física a primera vista no resulta tan evidente que una simetría continua implique una cantidad conservada. Aparentemente son dos cosas que no tienen nada que ver. ¿A qué se debe esta relación?

Por otro lado, hoy sabemos que el mundo no es clásico, sino cuántico, y que la mecánica clásica no es más que una aproximación del comportamiento de los sistemas físicos en cierto límite. Por tanto, la demostración original de Noether no nos sirve para las leyes fundamentales de la naturaleza. ¿Se sigue cumpliendo el teorema de Noether en mecánica cuántica?

Estas dos preguntas son las que vamos a responder en este post.


16 ago 2021

¿Se quedan las cosas igual si les damos una vuelta completa?

Tome usted un folio rectangular de tamaño A4.

Gírelo 45 grados. ¿Se queda igual? Es evidente que no. Ahora está inclinado.
Ahora gírelo 90º. Sigue sin estar igual. Antes estaba en posición horizontal, pero ahora está vertical.
¿Y si lo giramos 180ª? Entonces sí se queda igual.
Como el folio se queda invariante al realizar una rotación de 180º, entonces decimos que tiene simetría de rotación al girarlo 180º, o cualquier múltiplo de 180º.

Tomemos ahora un triángulo equilátero.
En este caso esta figura, para que se quede igual, hay que rotarla  120º o cualquier múltiplo de 120º.

Pero si elegimos una figura que no tiene ninguna simetría, como por ejemplo:
Entonces la única forma de que se quede igual es rotarla 360º, es decir, dándole una vuelta completa.

Esta última propiedad que hemos descrito, ¿es universal? ¿Se quedan todos los objetos igual al darles una vuelta completa? La mayoría de las personas piensan que sí. Vaya pregunta más estúpida, ¿verdad? Incluso hay quien se atreve a afirmar que el enunciado que dice "Todos los objetos se quedan igual si les damos una vuelta completa" es un juicio analítico, esto es, un enunciado cuya verdad o falsedad no necesita ser comprobada experimentalmente. Es un teorema matemático, una "verdad absoluta" a la que tienen que obedecer todos los objetos del universo.

Pero la realidad es que se trata de un enunciado sintético. El motivo por el que la mayoría de las personas están convencidas de que los objetos se quedan igual al darles una vuelta completa es porque tienen una fuerte evidencia experimental a favor de este enunciado, ya que han manipulado objetos y los han girado desde que tenían pocos meses de vida. Todos los objetos que les damos a los bebés para que jueguen se quedan igual al rotarlos 360º.

Sin embargo, si dejáramos a los bebés jugar directamente con electrones, entonces no sacarían la conclusión de que todos los objetos se quedan igual al darles una vuelta completa. Los electrones no se quedan igual. De hecho, son objetos a los que es necesario darles dos vueltas para que se queden igual. ¿Cómo es eso posible? Eso es lo que voy a tratar de explicar en este post.

 

31 ene 2021

El problema de la demarcación entre ciencia y pseudociencia

El nombre de pseudociencia se aplica a toda creencia o práctica que es presentada como ciencia, pero que en realidad no lo es. Las pseudociencias constituyen un grupo bastante heterogéneo, ya que en esta definición se incluyen:
  • creencias antiguas con cierto arraigo, como la astrología.
  • nuevas modas, muchas veces impulsadas por colectivos de timadores que pretenden obtener beneficios económicos valiéndose del prestigio de la ciencia. Aquí entran por ejemplo terapias que no funcionan más allá del efecto placebo como la homeopatía.
  • ideologías dogmáticas impuestas por los que ostentan el poder. Aquí entra por ejemplo la economía neoliberal, cuyos mantras utópicos nos son vendidos como si fueran leyes científicas bien establecidas.

A primera vista uno podría pensar que el problema de las pseudociencias es un problema fácil de resolver. Basta con enseñar a la población la diferencia entre lo que es ciencia y lo que no lo es. Y esto podemos hacerlo a dos niveles: con una mejor educación científica en las escuelas, y con una mejor divulgación científica en los medios de comunicación.

Título de un vídeo de un conocido medio que realiza una importante labor para contrastar noticias y desmentir bulos.

Sin embargo, ¿realmente somos capaces de dar unas pautas sencillas que nos permitan demarcar sin ambigüedad qué creencia o práctica es científica? ¿Realmente el sistema educativo está contribuyendo a dar a la población la formación científica necesaria para distinguir ciencia de pseudociencia? ¿Está ayudando también la divulgación científica que se está haciendo a esta empresa? ¿Nos están ayudando los científicos profesionales? ¿Nos ayudan los profesionales de la salud a que no caigamos en los engaños de las pseudoterapias? Desgraciadamente, ninguna de estas preguntas tiene una respuesta afirmativa. En este artículo vamos a analizar sólo la primera pregunta. El lector interesado en las demás preguntas puede consultar este otro artículo. Por tanto, aquí nos vamos a centrar en responder a esta pregunta: ¿Realmente somos capaces de dar unas pautas sencillas que nos permitan demarcar sin ambigüedad qué creencia o práctica es científica?

27 dic 2020

Guía de prácticas de laboratorio


En esta entrada los estudiantes de bachillerato y de primeros años de universidad pueden encontrar la información básica que necesitan para iniciarse en el trabajo experimental en el laboratorio. Yo no soy partidario de dar a los estudiantes un guion de prácticas detallado para cada práctica que indique paso a paso todo lo que hay que hacer. En su lugar, prefiero obligar a los estudiantes a diseñar ellos el experimento.

Diseño del experimento

En ciencia los experimentos se diseñan con un objetivo: poner a prueba una o varias hipótesis que tratan de responder a lo que nos estamos preguntando. Estas hipótesis pueden ser afirmaciones aisladas o enunciados que forman parte de una teoría previa al experimento, pero en ambos casos se han elaborado de acuerdo con los conocimientos que se tienen hasta el momento sobre el tema. Por ello, antes de diseñar el experimento tenemos que dejar claro en nuestro cuaderno de laboratorio cuál es la/s pregunta/s que tratamos de responder y con qué hipótesis trabajamos para responderla/s.

A continuación diseñamos el experimento para poner a prueba esas hipótesis. Para ello, dibujamos en nuestro cuaderno de laboratorio un esquema del montaje experimental, indicamos qué magnitudes vamos a medir y cómo vamos a hacerlo. De esta forma preparamos nuestro cuaderno de laboratorio (físico en papel o electrónico) con una serie de tablas con las casillas vacías donde vamos a ir escribiendo los datos experimentales según los vayamos obteniendo. Junto que esas tablas tiene que venir bien claro en nuestro cuaderno cómo vamos a analizar esos datos y qué vamos a calcular a partir de ellos. También indicamos qué esperamos obtener en este análisis si la hipótesis que estamos sometiendo a examen fuera correcta.

Nótese que a la hora de hacer todo esto necesitamos trabajar con hipótesis auxiliares (por ejemplo, “el rozamiento es despreciable”, “este tiempo es muy pequeño con respecto al otro y lo despreciamos”, etc) muchas de las cuales puede que no vayamos a comprobar ni siquiera a posteriori. Es muy importante que apuntemos también estas hipótesis adicionales en nuestro cuaderno ya que los resultados de nuestro experimento no van a ser generales, van a depender de que estas hipótesis adicionales sean correctas. Es decir, al final sólo podremos afirmar que “siempre que el rozamiento sea despreciable se cumplirá esta conclusión: …”, etc.

Es importante no olvidarse de que es falso que en ciencia el experimento sea anterior a la teoría e independiente de ésta. Hay algunas cuestiones básicas de filosofía de la ciencia que conviene tener claras antes de entrar en el laboratorio:


Ejecución del experimento

Una vez montado el experimento, antes de medir, tenemos que comprobar que hemos escrito en nuestro cuaderno todas las hipótesis y que hemos indicado cuáles vamos a comprobar y cuáles no. A continuación nos familiarizamos con el funcionamiento del dispositivo y de todos los aparatos y sólo después de esto comenzamos a medir rellenando la tabla que hemos preparado (¡NADA DE RETENER LOS DATOS EN LA MEMORIA EN VEZ DE APUNTARLOS!). En este punto hay que tener especial cuidado en:
  • apuntar la sensibilidad de todos los aparatos de medida utilizados
  • estudiar cómo de preciso es el método utilizado. Esto lo hacemos midiendo las veces que consideremos conveniente (más veces cuanto más dispersos se obtengan los datos), tomando como el valor de la medida la media de todas las medidas y como su incertidumbre experimental el mayor entre la sensibilidad y el error de precisión. Todo esto también se apunta en el cuaderno de laboratorio. El error de precisión (error aleatorio) se puede estimar burdamente en Bachillerato calculando el resultado de restar el mayor menos el menor y dividir entre dos. En la universidad vas a necesitar calcular la desviación típica con la corrección de Bessel.
Para hacer esto es muy importante que tengas claro cuál es la diferencia entre sensibilidad, precisión y exactitud: 

Análisis de los resultados

Tras realizar el experimento analizamos los resultados siguiendo los pasos que habíamos previsto en nuestro cuaderno de laboratorio. En este análisis es muy importante que estimes bien cuáles son las incertidumbres experimentales y cómo se propagan. La información que necesitas para hacer esto la tienes en estos vídeos:
La mejor forma de analizar unos resultados experimentales es mediante gráficas. Típicamente lo que hacemos será, si lo que queremos es comprobar una ley de la forma y=mx+n, representar los puntos (x,y) en una gráfica para:
  • Comprobar hasta qué grado se aproximan a una recta. Esto lo hacemos realizando el ajuste de mínimos cuadrados y viendo cuantos nueves tiene el coeficiente de correlación obtenido.
  • Hallar m y n (cada una con su error) para la recta que mejor se ajusta a los datos experimentales y comprobar si corresponden con los valores esperados.
Puedes aprender a hacer esto con este vídeo:

Elaboración de la memoria de prácticas

Al final el alumno tendrá que elaborar un breve informe de todo el trabajo realizado y entrégaselo al profesor. El informe debe incluir todos y cada uno de los apartados siguientes:
  1. Portada. Con tu nombre y apellidos, grupo, nombre del profesor, nombre de la práctica realizada y nombre de los compañeros con los que realizaste la práctica.
  2. Breve introducción teórica. Se debe redactar una breve descripción del objetivo/objetivos de la práctica ¿Qué pretendíamos averiguar? ¿Qué hipótesis vamos a comprobar que tratan de dar respuesta a esa pregunta? ¿Qué propiedades hemos medido para conseguirlo? ¿Cómo se definen esa propiedades?
  3. Breve descripción del método utilizado, del montaje experimental y de las HIPÓTESIS UTILIZADAS. No olvides indicar qué magnitudes se han medido directamente y cómo se ha procedido para calcular las magnitudes derivadas buscadas; así como una exposición del método de medida. Indica también si el método utilizado para medir es preciso o no y cuál es la sensibilidad de los aparatos utilizados.
  4. Datos experimentales. Se presentarán los resultados experimentales, en forma de tablas. Comenta también las incidencias ocurridas en la realización de la práctica.
  5. Presentación y discusión de los resultados. Conclusiones. LOS RESULTADOS HAN DE PRESENTARSE CON CLARIDAD, ¡con sus unidades, errores absolutos y errores relativos! Ha de indicarse cómo se han obtenido los resultados y presentarlos mediante gráficas. Éstos han de ir acompañados de su correspondiente discusión. No olvides contrastar las hipótesis que inicialmente hiciste (las que se puedan ¿son correctas? ¿no lo son?). Si existiese alguna discrepancia con lo esperado de antemano intenta explicar las posibles causas. Expón, si es posible, las sugerencias que tienes para mejorar y/o continuar con ese trabajo experimental.
  6. Conclusiones.
  7. Bibiografía utilizada. Indispensable.


10 oct 2020

Funciones de onda que dependen a la vez de las coordenadas y de los momentos. Parte 2: Estados estrujados generalizados y funciones de distribución cuánticas

En el artículo anterior hemos visto que es posible definir una representación, denominada holomorfa, en la que las funciones de onda dependen, a la vez, de las coordenadas $q$ y de los momentos $p$. Aunque el sistema cuántico con el que estamos trabajando sea muchísimo más complicado que el oscilador armónico, dado un número real positivo $\omega$, podemos definir los correspondientes operadores aniquilación y creación como
$ \hat{a}=\frac{1}{\sqrt{2\hbar\omega}} (\omega \hat{q} + i \hat{p}) $
$ \hat{a}^\dagger=\frac{1}{\sqrt{2\hbar\omega}} (\omega \hat{q} - i \hat{p}) $
de forma que $\omega$ se interpreta como la frecuencia asociada a un oscilador armónico de masa $m=1$. Denotamos los correspondientes estados estacionarios de este oscilador como $|n\rangle$. Si trasladamos el estado fundamental de este oscilador armónico por el espacio de fases hasta que esté centrado en el punto $(q,p)$, podemos obtener el estado coherente $|\alpha\rangle$, donde $\alpha$ es un número complejo cuyas partes reales e imaginaria son, salvo factores multiplicativos, respectivamente $q$ y $p$.
$ \alpha=\sqrt{\frac{\omega}{2\hbar}} \left( q+\frac{i}{\omega} p \right) $
Para conseguir la función de onda correspondiente al estado $|\psi \rangle$ en esta representación sólo hay que multiplicar escalarmente este estado por el estado coherente.
$ |\alpha\rangle_{\rm bad} = e^{\frac{1}{2}|\alpha|^2} | \alpha\rangle $
Este estado no está normalizado a la unidad. Esto es importante, porque si tomamos el módulo al cuadrado de la función de onda en la representación holomorfa,
$ | _{\rm bad} \langle \alpha |\psi\rangle |^2 $
lo que se obtiene es el módulo al cuadrado de un producto escalar de estados cuánticos donde uno de ellos no está normalizado a la unidad. Es por ello que no podemos interpretar el módulo al cuadrado de la función de onda en la representación holomorfa como una probabilidad cuántica.

También hemos visto que la versión normalizada de este estado coherente no es más que el estado fundamental para un oscilador armónico (que es un estado que satura la relación de indeterminación de Heisenberg) trasladado por el espacio de fases mediante el operador desplazamiento de Weyl.
$ |\alpha\rangle = e^{-\frac{1}{2}|\alpha|^2} e^{\alpha \hat{a}^\dagger} |0\rangle$
Por ello, si normalizamos adecuadamente a la unidad los estados coherentes utilizados como base en la representación holomorfa, aunque ésta deja de ser holomorfa, el módulo al cuadrado de la función de onda así obtenida
$ | \langle \alpha |\psi\rangle |^2 $
sí que es una probabilidad cuántica asociada a cada punto del espacio de fases. A esta distribución de probabilidad se la denomina distribución de Husimi. ¿Cuál es su significado físico y qué propiedades tiene? Una de las cosas que vamos a hacer en este artículo es ver en mayor detalle cómo podemos utilizar los estados coherentes para definir funciones de distribución de probabilidad en el espacio de fases.

Las bases de estados coherentes nos permiten explorar en qué punto del espacio de fases se encuentra una partícula cuántica, con la mejor resolución posible dentro de lo que nos permite el principio de indeterminación. La pregunta que surge ahora es, ¿es la representación de estados coherentes la más general posible que se puede conseguir con la técnica de realizar transformaciones en el espacio de fases sobre el estado fundamental del oscilador armónico? Además de traslaciones en el espacio de fases, podemos someter también al estado fundamental del oscilador armónico a otras transformaciones, como rotaciones y estrujamientos. Para asegurarnos de que estamos trabajando con la base de estados $|q,p\rangle$ más general posibles, en este artículo vamos a estudiar cómo afectan a estos estados las distintas transformaciones que podemos hacer en el espacio de fases de la partícula. Esto nos va a permitir generalizar los resultados de la primera parte de este artículo.

17 ago 2020

Funciones de onda que dependen a la vez de las coordenadas y de los momentos. Parte 1: La representación holomorfa


El principio de indeterminación nos dice que, cada partícula, en su movimiento, no sigue una trayectoria bien definida. Un error común consiste en pensar que lo que nos dice este principio es que las trayectorias de las partículas están ocultas para nosotros. Sin embargo, el principio de indeterminación va mucho más allá. Lo que dice no es sólo que no podemos saber con total precisión cuál es la trayectoria que ha seguido una partícula, sino que la trayectoria, como ente físico, no existe. Usted, querido lector, puede afirmar que su cuerpo ha seguido, desde que se levantó esta mañana de la cama hasta el lugar donde ha tomado el desayuno, una trayectoria bien definida con una precisión de más/menos un micrómetro, pero cada uno de los electrones, protones y neutrones que forman parte de su cuerpo no ha seguido ninguna trayectoria concreta. Y, si no han seguido ninguna trayectoria bien definida, tampoco tienen en cada instante de tiempo unos valores de las coordenadas que dan la posición $q$ y las que dan el momento $p$ bien definidos simultáneamente (ya que, si estuvieran bien definidos en cada instante de tiempo, entonces la trayectoria también estaría bien definida).

Aunque todos los sistemas físicos obedecen al principio de indeterminación, sí es posible seguirle el rastro, seguirle la trayectoria con cierta incertidumbre experimental, a la mayoría de los sistemas macroscópicos. Por ejemplo, es posible ver cómo una aguja de un aparato de medida va pasando de la posición 5 a la posición 6. De esto se aprovecha la mecánica cuántica: los aparatos de medida con los que estudiamos los sistemas físicos son siempre, en buena aproximación, clásicos. Estudiando cómo evoluciona ese sistema clásico mientras interacciona con el sistema cuántico podemos obtener información sobre el sistema cuántico. Este truco nos permite hacer física a pesar del principio de indeterminación.

Pero el precio que tenemos que pagar es trabajar con magnitudes físicas que no son características sólo del sistema cuántico, sino que son propiedades del conjunto formado por el sistema cuántico y los aparatos de medida [Landau1962]. Las características dinámicas de los objetos cuánticos sólo están, por tanto, asociadas a los resultados de la medición cuántica, y por eso se les llama "observables". Por ejemplo, si dispongo los aparatos para medir con muchísima precisión la posición de una partícula, el observable posición $q$ tomará un valor bien definido, y podemos llamar $|q\rangle$ al estado cuántico en el que se encuentra la partícula. Pero entonces el observable momento $p$ no tomará una valor bien definido. ¡Ojo! No es que tome un valor bien definido desconocido para nosotros, sino que no toma ningún valor en concreto. Al ser una característica asociada, no sólo al sistema cuántico, sino también a una disposición concreta de los aparatos de medida que hemos decidido no implementar, es una característica de algo que no existe en ese momento y, por tanto, su valor no existe en ese momento. Si, después, ponemos los aparatos de medida de tal forma que midan la velocidad, entonces el observable momento $p$ sí tomará un valor bien definido y llamamos al estado cuántico correspondiente $|p\rangle$, pero entonces el observable posición $q$ estará indeterminado. Por simplicidad nos limitaremos al caso unidimensional en el que hay sólo una coordenada espacial $q$ y su momento asociado $p$, pero todo lo que vamos a ver se puede generalizar para cualquier número de dimensiones.

En general, el estado mecanocuántico $|\psi \rangle$ en que se encuentra una partícula va a ser un estado superposición de estados $|q\rangle$ con posición bien definida diferente:
$ | \psi \rangle = \int dq \psi (q) | q \rangle $
Esto significa físicamente que en el estado $| \psi \rangle$ la posición de la partícula no toma un valor bien determinado. Los coeficientes $\psi(q)$ de esta superposición nos dan las amplitudes de probabilidad de que, al medir la posición de la partícula, obtengamos el valor $q$. A la función $\psi$ que asigna a cada posición $q$ la amplitud de probabilidad $\psi (q)$ se la denomina función de onda en la representación de coordenadas de Schrödinger. El tamaño del rango en el que $\psi (q)$ es muy distinta de cero nos da una idea aproximada de cómo de indeterminada está la posición de la partícula.

Análogamente, este mismo estado $|\psi \rangle$ también se puede escribir como superposición de estados $|p\rangle$ con momento bien definido diferente:
$ | \psi \rangle = \int dp \tilde{\psi (p)} | p \rangle $
Esto significa físicamente que en el estado $| \psi \rangle$ el momento de la partícula no toma un valor bien determinado. Los coeficientes $\tilde{\psi(p)}$ de esta superposición nos dan las amplitudes de probabilidad de que, al medir el momento de la partícula, obtengamos el valor $p$. A la función $\tilde{\psi}$ que asigna a cada momento $p$ la amplitud de probabilidad $\tilde{\psi} (p)$ se la denomina función de onda en la representación de momentos de Schrödinger. El tamaño del rango en el que $\tilde{\psi} (p)$ es muy distinta de cero nos da una idea aproximada de cómo de indeterminado está el momento de la partícula.

La función $\tilde{\psi} (p)$ contiene exactamente la misma información que la función de onda en la representación de coordenadas $\psi (q)$ y todo estudiante de física sabe que se puede pasar de una a la otra mediante una transformación unitaria que se denomina transformada de Fourier.

Por tanto, parece que tenemos básicamente dos opciones. O bien representamos el estado cuántico $|\psi\rangle$ mediante la función de onda $\psi(q)$, con la que se visualiza perfectamente la indeterminación de la posición de la partícula, o bien trabajamos con $\tilde{\psi}(p)$ para visualizar la indeterminación en el momento. Sin embargo, en realidad existen infinitas formas de especificar el estado cuántico que son distintas a $\psi(q)$ y $\tilde{\psi}(p)$. ¿Es posible construir una función de onda $\psi^\prime (q,p)$ que represente al estado cuántico $|\psi\rangle$ y que sea dependiente tanto de las coordenadas como de los momentos? Eso es lo que vamos analizar en este artículo.

10 jul 2020

¿Qué es cuantizar?

A principios del siglo XX la física sufrió dos revoluciones que la cambiaron para siempre. La mayor de ellas, la revolución cuántica, nos hizo ver que objetos matemáticos que dábamos por hecho que poseían existencia física, como, por ejemplo, la trayectoria de las partículas, en realidad de forma precisa no existen en la naturaleza. El principio de indeterminación nos dice que las partículas elementales no son ni ondas ni corpúsculos clásicos, sino unos objetos cuánticos que, en su movimiento, no siguen una trayectoria bien definida. En la teoría que describe el comportamiento de estos objetos, la mecánica cuántica, las variables dinámicas como la posición $x$ o la cantidad de movimiento $p$ no son números reales, sino operadores $\hat{x}$, $\hat{p}$ en un espacio vectorial cuyos elementos son los estados de la partícula cuántica. El principio de indeterminación da lugar a que estos operadores no conmutan, sino que obedecen a la relación de conmutación $ [\hat{x},\hat{p}]=i\hbar$. Todo en la naturaleza es cuántico y, por tanto, obedece a los principios de la mecánica cuántica.

Se denomina cuantización a los procedimientos que nos permiten obtener una descripción cuántica de un sistema físico a partir de su descripción clásica. Gracias a los métodos de cuantización, podemos pasar de la mecánica clásica de un sistema físico a la mecánica cuántica del mismo. Por ejemplo, si tomamos el oscilador armónico clásico, cuyo hamiltoniano$$
H=\frac{{p}^2}{2m}+\frac{1}{2}m\omega^2{x}^2
$$ es una constante de movimiento que puede tomar cualquier valor mayor o igual que cero, y promocionamos las funciones $x$ y $p$ del espacio de fases a operadores en un espacio de Hilbert con la relación de conmutación antes descrita, obtenemos el oscilador armónico cuántico. En éste, por culpa del principio de indeterminación, el estado de menor energía no es el de $E=0$, sino el de $E=\hbar \omega /2$, mientras que los demás niveles toman, por ser un sistema ligado, valores discretos, en este caso separados por $\hbar \omega$. Análogamente, si cogemos la descripción clásica del átomo de hidrógeno, la del modelo de Rutherford, en la que un electrón orbita en torno a un protón, y promocionamos la posición y la cantidad de movimiento del electrón a operadores, obtenemos el modelo mecanocántico del átomo de hidrógeno, en el que, también por culpa del principio de indeterminación, el electrón en el estado de menor energía está deslocalizado en torno al protón en una región de un tamaño del orden de magnitud de $$ a_0=\frac{4\pi \epsilon_0 \hbar^2}{me^2}$$
Al método de cuantización que acabamos de describir se le denomina cuantización canónica. Éste consiste en promocionar a operadores las funciones del espacio de fases del sistema clásico, imponiendo las relaciones de conmutación adecuadas. Sin embargo, éste no es el único método de cuantización que existe. Hay otros métodos, como son la cuantización geométrica, la integral de camino de Feynman, la basada en las funciones de distribución cuánticas, etc.

En los dos ejemplos que acabamos de mencionar, o en el caso más general de una partícula no relativista sometida a un potencial $V(x)$, al promocionar $x$ y $p$ a operadores no tenemos ningún problema de ambigüedad en la mayoría de las aplicaciones por el hecho de que en la teoría cuántica $\hat{x}$ y $\hat{p}$ no conmutan. Sin embargo, en el momento en el que estamos interesados en observables que clásicamente sean funciones tanto de $x$ como de $p$, o en sistemas con hamiltonianos que poseen términos que combinan $x$ con $p$ (como por ejemplo en el caso de una partícula cargada) entonces hay distintas formas de asignar, a cada observable $f(x,p)$ en mecánica clásica, su correspodiente observable $f(\hat{x},\hat{p})$ en mecánica cuántica. Hay distintas asignaciones posibles porque estos observables dependen de con qué criterio se ordenan los productos de $x$ con $p$. A cada una de estas formas se le denomina esquema de cuantización, y cada uno de ellos da lugar a predicciones distintas, con lo que es importante saber cuál es el adecuado en cada caso. Es importante señalar que este problema de saber qué orden es el adecuado en el hamiltoniano y en los observables mecanocuánticos aparece de forma genérica incluso aunque impongamos que estos operadores deben ser hermíticos. La condición de hermiticidad no es suficiente para fijar sin ambigüedad qué observable mecánocuántico $f(\hat{x},\hat{p})$ es el que se corresponde con el observable clásico $f(x,p)$. Son en última instancia los experimentos los que tienen que decidir cuál es el esquema de cuantización adecuado para un sistema físico.

Bien, supongamos que tenemos resuelto para un sistema físico concreto el problema del esquema (orden) de cuantización. Para muchos estudiantes, la cuantización es un procedimiento que, aunque pueda ser en la mayoría de casos mucho más largo y tedioso que en el oscilador armónico o el átomo de hidrógeno, es directo, una vez que se ha elegido el esquema de cuantización adecuado. Piensan que los distintos métodos de cuantización son recetas infalible mediante las cuales, a partir de una teoría clásica concreta, se obtiene su correspondiente teoría cuántica.

En este artículo vamos a ver por qué esta visión ingenua que tienen en general los estudiantes después de su primer curso de mecánica cuántica en la universidad es incorrecta, y que la razón es mucho más profunda que la ambigüedad de orden que acabamos de mencionar. Esto lo vamos a hacer utilizando como ejemplo los intentos de cuantización de la partícula relativista. De la misma manera que en nuestro primer curso de cuántica en la universidad teníamos una partícula clásica no relativista sometida al potencial del oscilador armónico, o al del átomo de hidrógeno, y la hemos hecho cuántica, ahora vamos a intentar hacer lo mismo con la partícula relativista. A ver qué ocure.

6 jun 2020

La vuelta a clase "voluntaria" vulnera el derecho a la educación de niñas, niños y adolescentes


En la película El Cabezota, Pedro Pinzalez es un hombre viudo que vive con su hijo Pedrín, de unos siete años de edad, cazando, pescando y cultivando la huerta familiar. Esto le lleva a considerar que enseñar a vivir a su hijo es mejor que cualquier otro tipo de educación, y por ello se niega a llevar a Pedrín a la escuela cuando en 1857 entra en vigor la Ley Moyano, que establecía la obligatoriedad de la primera enseñanza. Que un padre se oponga a que su hijo reciba cualquier tipo de educación es una actitud que nos parece de una necedad que roza lo absurdo, incluso aunque se trate de una historia ambientada en el siglo XIX, pero la realidad en España es que más de un siglo después de que se promulgara la Ley Moyano se seguía sin escolarizar al 100% de los niños y niñas, tanto por oposición de algunas familias como por el hecho de que las administraciones no garantizasen plazas para todos en los colegios.

Hoy el Estado Español es, desde 1978, un estado democrático en el que la educación se considera un derecho fundamental. Este derecho, como tal, viene recogido en la Constitución. El artículo 27 establece que todos tienen derecho a la educación y, además, define de un modo preciso el concepto de educación que habrá de ser aplicado cuando señala que "la educación tendrá pòr objeto el pleno desarrollo de la personalidad humana en el respeto a los principios democráticos de convivencia y a los derecho y libertades fundamentales". Para garantizar ese derecho a la educación de nuestros niños, niñas y adolescentes, la Ley Orgánica de Educación (LOE) y su modificación posterior, la nefasta LOMCE, establecen como obligatorias las etapas de educación primaria (desde los 6 hasta los 12 años) y la secundaria obligatoria (hasta los 16 años).

Es importante señalar que no fue nada fácil conseguir esta obligatoriedad para todos hasta los 16 años. El primer paso importante lo dio la Ley General de Educación de 1970, que posibilitó en la década de los setenta del pasado siglo la escolaridad de la totalidad de la población por primera vez en la historia de España, y que no se discriminara a los niños y niñas a los 10 años, como ocurría con la Ley Moyano. Y no fue hasta 1990 cuando, con una nueva ley, la LOGSE, nuestros gobernantes tomaron la valiente decisión de garantizar que todos los menores de 16 años estén escolarizados independientemente de su condición socioeconómica o del interés que tengan sus progenitores en su educación.

Nunca me he visto en la necesidad de tener que explicar esto a nadie, ni mucho menos de escribir sobre este asunto, hasta que la respuesta que nuestros gobernantes están dando en materia educativa a la pandemia del COVID-19 me ha dejado de piedra. Voy a centrarme en la Comunidad de Madrid, pero en el resto de comunidades autónomas está ocurriendo algo parecido.