Quizás valga la pena añadir que Planck encontró "su" constante $h$ considerando un problema de muchos cuerpos.
En aquella época, era un método bastante habitual en la mecánica estadística dividir el espacio de fase físico en pequeños volúmenes de fase discretos ("celdas") y contarlos. Por lo tanto, la mecánica estadística de esta época ya contenía un procedimiento de doble límite, al dejar que el número de partículas $N \to \infty$ (y el volumen total $V \to \infty$ para obtener un límite termodinámico), y dejando que la unidad de volumen espacial de la fase discretizante $\nu \to 0+$ .
Desde un punto de vista actual, para obtener la mecánica estadística clásica de muchos cuerpos, primero se toma $N \to \infty$ en el límite termodinámico de la mecánica estadística cuántica, y luego $\hbar \to 0+$ después para obtener el límite (semi)clásico. Esto es en cierto sentido, y matemáticamente hablando desde un punto de vista actual, lo que descubrió Planck (sin decirlo). La mecánica estadística clásica se habría obtenido tomando primero el "límite (semi)clásico" $\hbar \to 0+$ y el límite termodinámico $N \to \infty$ después.
Una buena referencia es Longair: Theoretical Concepts in Physics, 2ndEd, 2003, capítulo 13 (véase también el capítulo 12).
También hay que entender que la física no es una ciencia formal, como las matemáticas, sino que su objetivo último es comprender los fenómenos reales. No existe ningún sistema de una sola partícula en ningún lugar del mundo. Sólo existen sistemas de muchos cuerpos. Considerar un sistema con una sola partícula o con un solo grado de libertad, etc., se deriva de los grandes procedimientos de reducción y de la teoría de perturbaciones.
El libro de Mecánica Cuántica de John von Neumann tiene un capítulo sobre el acoplamiento de la cantidad observada al entorno.
En forma elemetaria, el procedimiento para obtener modelos "físicamente tratables" es el siguiente. Se considera una determinada parte de la realidad y se intenta especificarla declarando una frontera, separando el "sistema observado" y el "entorno". Se toma un límite termodinámico para el entorno. Entonces podemos hablar de magnitudes intensivas como la temperatura. Estas magnitudes determinan un (uno o varios) estado de equilibrio del sistema observado. Hacemos una perturbación ansatz para el sistema observado considerando estados cercanos al equilibrio. Intentamos deshacernos de todas las interacciones detalladas del sistema observado con las "partículas" detalladas del entorno, considerando sólo interacciones promediadas con el entorno. En general, las ecuaciones obtenidas para un subsistema serían no locales (tanto en el espacio como en el tiempo). Localizamos cerca del equilibrio para obtener ecuaciones para nuestro subsistema observado. Los datos del entorno sólo entran a través de algunos parámetros (no demasiados). Aquí es donde empiezan la mayoría de los modelos de física.
Estas consideraciones también dejan claro por qué hay que tener en cuenta los estados mixtos (tanto en la mecánica estadística cuántica como en la mecánica estadística clásica) y no sólo los estados puros. Los numerosos procedimientos de promediación mencionados anteriormente proporcionarán en general un estado mixto para el subsistema observado, no un estado puro.
Los estados puros sirven principalmente para ayudar a modelizar y analizar algunos fenómenos, ya que los estados mixtos pueden escribirse, en general, como una combinación de estados puros.
Yo no consideraría que la mecánica cuántica "cuantiza" la mecánica clásica, porque no existe un procedimiento único clásico -> cuántico. Es más bien al revés, que los modelos de la mecánica cuántica tienen también un límite (semi)clásico.
Sería físicamente engañoso pensar que la cuantización geométrica o la cuantización por deformación son la respuesta a la pregunta de cómo modelar un sistema clásico cuánticamente. Básicamente, eso no es cierto. Los procedimientos de cuantización sólo ayudan a identificar qué tipo de modelos cuánticos podrían ser apropiados, y cuáles deben ser claramente descartados. El verdadero procedimiento en física consiste en adivinar un modelo mecánico cuántico (la mayoría de las veces por experiencia, y como combinación de modelos más sencillos que ya se comprenden) y comprobar mediante experimentos lo bien que describe la realidad. La mecánica clásica sólo ayuda a orientar el modelado, por ejemplo, mediante la geometría (por ejemplo, una geometría de fermiones indistinguibles no es tan fácil de visualizar...).
El pensamiento de los físicos es, en cierto sentido, opuesto al de los matemáticos. Un matemático suele tener un sistema de axiomas para el "caso general" y los especializa haciendo más suposiciones. En la modelización física de situaciones nuevas, básicamente no hay axiomas (salvo los muy generales), pero sí modelos muy concretos, que se han probado en situaciones específicas. Estos modelos se combinan después, como en un sistema de construcción modular. Esa es también la razón por la que los libros de texto de física casi nunca tienen axiomas, sino una plétora de ejemplos y ejercicios de cálculo. La modelización física en este sentido es "ascendente", mientras que el método de modelización de un matemático es más bien "descendente". Los matemáticos modelan sólo en situaciones en las que la física ya se ha establecido, por ejemplo, tomando las ecuaciones generales ya conocidas de la mecánica continua y especificándolas mediante la elección de las constantes materiales (o funcionales) apropiadas. La modelización física suele producirse en situaciones en las que se desconocen las "ecuaciones generales", por lo que no pueden adaptarse a la situación específica.
0 votos
No entiendo muy bien su pregunta. Tu motivación indica que tu pregunta tiene algo que ver con lo que ocurre con este fenómeno de la "raíz cuadrada", pero luego la última frase parece no tener nada que ver con eso. ¿Puede ser más específico?
1 votos
Así, la mecánica clásica y el límite de la mecánica cuántica estudian la acción de la misma álgebra de Poisson sobre representaciones diferentes. Mi pregunta es si es posible motivar por qué actúa la misma álgebra utilizando alguna familia (potencialmente más general) de ejemplos físicos.
1 votos
Sigo sin entender qué sería o no una respuesta a esta pregunta. Hay un cierto punto de vista sobre este asunto (explicado, por ejemplo, en qchu.wordpress.com/2012/08/18/noncommutative-probability ) que toma la representación como no canónica y, por tanto, de importancia secundaria, y da importancia primordial al par de un álgebra de observables y un operador de expectativas sobre ella. Aquí no se pierde ni se gana nada en la $\hbar \to 0$ límite; el álgebra de Weyl se convierte en el álgebra polinómica y así sucesivamente. ¿Ya sabes todo esto o qué?
3 votos
Tampoco tengo claro lo que pregunta. Ingenuamente, yo pensaría que usted está buscando el formulación del espacio de fases de la mecánica cuántica, que fue desarrollado de forma independiente en la década de 1940 por Moyal y Groenewold. En concreto, Moyal demostró que se puede formular la mecánica cuántica mediante Distribuciones de cuasiprobabilidad de Wigner que no son más que funciones en el espacio de fases. Sin embargo, la decoherencia sigue siendo un poco sutil en este marco, así que no estoy seguro de si eso respondería a tu pregunta.
0 votos
@Qiaochu: justo. Intentaré editar para que quede más claro. No he leído tus notas con mucha atención, pero creo que he oído puntos de vista similares, y lo que busco es algo más concreto que eso. En lugar de "ambos problemas pertenecen a la misma clase de problemas", quiero decir, "heurísticamente, esta es la razón por la que se puede esperar que el álgebra de Poisson en el límite sea una degeneración del álgebra de observables, pero que la representación cambie". El tipo de explicación que espero es una incrustación de las representaciones regulares en un producto tensorial de las irreducibles.
1 votos
@Dmitry: lo que quiero decir es que no existe "la representación" desde este punto de vista. Un operador de expectativa sobre un álgebra de observables puede surgir de muchos pares $(H, v)$ de un espacio de Hilbert $H$ y un vector $v$ en él. Existe en cierto sentido una elección "canónica" dada por la construcción GNS, pero no producirá el espacio de Hilbert "físico" con el que se empezó.
0 votos
Aunque para el álgebra de Weyl en particular ocurre algo misterioso con el teorema de Stone-von Neumann ( es.wikipedia.org/wiki/Teorema de Stone%E2%80%93von_Neumann ) que no entiendo muy bien.
0 votos
Hmmm. Ya veo. Así que creo que estamos trabajando en diferentes marcos. Tal y como yo lo entiendo, la cuántica (no relativista) estudia la evolución de un funcional concreto $\psi$ y entonces la probabilidad (digamos, vía dispersión) es una cierta superestructura en el problema, diciendo que entonces se miran los valores propios simultáneos de eventualmente (en $t\to \infty$ ), cuyos coeficientes se denominan "probabilidades de medida". Quizá la respuesta a mi pregunta esté en traducir de mi punto de vista al suyo.
5 votos
(a) No me queda claro si está utilizando $\psi$ para denotar la función de onda $|\psi\rangle$ o el estado puro $|\psi\rangle \langle \psi|$ son estos últimos (o más generalmente, los estados mixtos) los análogos de la función de densidad del espacio de fases clásico. (b) El formalismo matemático que puede estar buscando es el del análisis semiclásico, véase por ejemplo math.berkeley.edu/~evans/semiclassical.pdf que muestra que la dinámica de la mecánica cuántica en estados de alta frecuencia se comporta de forma clásica hasta el orden superior.
0 votos
(una pequeña aclaración: el análisis semiclásico funciona bien en el límite de alta frecuencia manteniendo $\hbar$ fijo, o en el límite $\hbar \to 0$ manteniendo fijo el rango de frecuencias; los dos regímenes son básicamente equivalentes después de reescalar (siempre que se ajusten los términos potencial y magnético en una potencia adecuada de $\hbar$ ).
0 votos
Me parece que en esta pregunta hay una confusión entre estados y observables. El análogo del clásico $\frac{d}{dt}\rho = \{H,\rho\}$ donde $\rho$ es una función en el espacio de fase, por tanto un observable clásico, es $\frac{d}{dt}A=[H,A]$ donde $A$ es un operador que actúa sobre el espacio de estados, es decir, un observable cuántico. El álgebra de los observables cuánticos es, en efecto, una deformación del álgebra de los observables clásicos, pero no sé qué significa "representaciones relevantes". El álgebra de los observables cuánticos actúa sobre el espacio de los estados cuánticos, pero el álgebra clásica no actúa sobre..
1 votos
... el espacio de los estados clásicos (que no es un espacio vectorial)
0 votos
Gracias a todos los que han comentado. Esto es estupendo. Creo que la respuesta que más me gusta es la observación de Terry Tao de que la correspondencia entre las funciones de onda y las densidades no es lineal, $|\psi\rangle \mapsto |\psi\rangle\langle\psi|$ . Entonces (presumiblemente), cuando tienes dos partículas $|\psi\rangle\otimes |\psi'\rangle \mapsto |\psi\rangle\langle\psi|\langle \psi'|\psi'\rangle + \langle \psi|\psi\rangle |\psi'\rangle\langle\psi'|$ , de modo que con más partículas, se puede obtener un mayor trozo (no lineal) de densidades. @TerryTao, ¿es esto correcto? (Tal vez entonces usted puede escribir una respuesta)
1 votos
La aplicación de un producto tensorial a dos estados de una partícula (o matrices de densidad) dará un estado de dos partículas (o matriz de densidad), que no es directamente comparable al sistema de una partícula, del mismo modo que la función de densidad de probabilidad del espacio de fase en un sistema clásico de una partícula no es directamente comparable a una función de densidad del espacio de fase en un sistema clásico de dos partículas. La forma adecuada de realizar una mezcla de matrices de densidad es tomar una combinación convexa, de forma similar a como la combinación convexa de medidas de probabilidad es de nuevo una medida de probabilidad.
2 votos
Puede consultar el artículo de Wikipedia sobre matrices de densidad, es.wikipedia.org/wiki/Matriz_de_densidad (y en la introducción mencionan explícitamente la analogía con las funciones de distribución de probabilidad del espacio de fase). Véase también mi entrada en el blog terrytao.wordpress.com/2009/11/26/ comparar la mecánica clásica y la cuántica para sistemas de N partículas.
0 votos
Gracias, tu entrada en el blog era exactamente lo que estaba buscando.
0 votos
Desde un punto de vista heurístico, en mi opinión todo resulta mucho más claro si se consideran las dos teorías como teorías de la probabilidad. La mecánica clásica puede verse como probabilidad clásica: el espacio de fases es el conjunto universal, los estados $\rho$ son las probabilidades, y los observables (como $H$ ) son variables aleatorias. La mecánica cuántica puede considerarse no conmutativa ( $\hbar$ -): no existe un conjunto universal, los estados cuánticos son las probabilidades nc y los observables cuánticos son los ( $C^*$ -álgebra de) nc variables aleatorias.
0 votos
En el límite $\hbar\to 0$ La teoría cuántica de la probabilidad nc se convierte en una teoría clásica de la probabilidad, "respetando los papeles": las probabilidades nc (estados q) se convierten en probabilidades c (estados c), las variables aleatorias nc (q-observables) se convierten en variables aleatorias c (c-observables). Además, la evolución dinámica (un automorfismo lineal unitario de los q-estados) se convierte en la evolución clásica (que es por el contrario no lineal) empujando hacia adelante los estados clásicos (medidas de probabilidad).
0 votos
El análogo de la ecuación clásica de Liouville es la ecuación de Von Neumann, no la de Schroedinger.