Considere el siguiente experimento. Tomo un giro $\frac{1}{2}$ partícula y hacer un $\sigma_x$ medición (medir el giro en el $x$ dirección), entonces haga un $\sigma_y$ medición, luego otra $\sigma_x$ uno, entonces $\sigma_y$ y así sucesivamente para $n$ medidas. El formalismo de la mecánica cuántica nos dice que los resultados de estas mediciones serán aleatorios e independientes. Ahora tengo una cadena de bits completamente aleatorios, de longitud $n$ . Brevemente, mi pregunta es ¿de dónde procede la información de esta cadena?
La respuesta obvia es "las mediciones cuánticas son fundamentalmente indeterministas y es simplemente una ley de la física que se obtiene una cadena aleatoria cuando se hace eso". El problema que tengo con esto es que se puede demostrar que la evolución unitaria de los sistemas cuánticos conserva la entropía de von Neumann, al igual que la evolución hamiltoniana de un sistema clásico conserva la entropía de Shannon. En el caso clásico esto puede interpretarse como que "ningún proceso puede crear o destruir información a nivel microscópico". Parece que lo mismo debería ser cierto también para el caso cuántico, pero esto parece difícil de conciliar con la existencia de una "verdadera" aleatoriedad en la medición cuántica, que sí parece crear información.
Está claro que hay algunas interpretaciones para las que esto no es un problema. En particular, para una interpretación sin colapso, el Universo simplemente termina en una superposición de $2^n$ estados, cada uno de los cuales contiene un observador que mira una cadena de salida diferente.
Pero no soy un gran fan de las interpretaciones sin colapso, así que me pregunto cómo se las arreglan otras interpretaciones cuánticas. En particular, en la interpretación "estándar" (me refiero a la que la gente adhiere cuando dice que la mecánica cuántica no necesita una interpretación), ¿cómo se reconcilia la indeterminación de la medición con la conservación de la entropía de von Neumann? ¿Existe alguna interpretación distinta a la de no colapso que lo resuelva especialmente bien?
adenda
Me parece que vale la pena resumir mi pensamiento actual al respecto, y volver a intentar aclarar lo que realmente estoy pidiendo.
Quiero empezar hablando del caso clásico, porque sólo entonces puedo aclarar dónde parece romperse la analogía. Consideremos un sistema clásico que puede adoptar una de las siguientes características $n$ estados discretos (microestados). Como no sé inicialmente en qué estado se encuentra el sistema, lo modelo con una distribución de probabilidad.
El sistema evoluciona con el tiempo. Lo modelamos tomando el vector $p$ de probabilidades y multiplicándolo por una matriz T en cada paso de tiempo, es decir $p_{t+1} = Tp_t$ . El análogo discreto de la dinámica hamiltoniana resulta ser la suposición de que $T$ es una matriz de permutación, es decir, tiene exactamente un 1 en cada fila y columna, y todas sus otras entradas son 0. (Nótese que las matrices de permutación son un subconjunto de las matrices unitarias.) Resulta que, bajo esta suposición, la entropía de Gibbs (también conocida como entropía de Shannon) $H(p)$ no cambia con el tiempo.
(También vale la pena mencionar, como un aparte, que en lugar de representar $p$ como un vector, podría optar por representarlo como una matriz diagonal $P$ con $P_{ii}=p_i$ . Entonces se parece mucho al formalismo de la matriz de densidad, con $P$ desempeñando el papel de $\rho$ y $T$ siendo equivalente a la evolución unitaria).
Ahora digamos que hago una medición del sistema. Supondremos que no perturbo el sistema cuando hago esto. Por ejemplo, digamos que el sistema tiene dos estados, y que inicialmente no tengo ni idea de en cuál de ellos está el sistema, por lo que $p=(\frac{1}{2},\frac{1}{2})$ . Después de mi medición sé en qué estado se encuentra el sistema, así que $p$ se convertirá en $(1,0)$ o $(0,1)$ con igual probabilidad. He ganado un poco de información sobre el sistema, y $H(p)$ se ha reducido un poco. En el caso clásico siempre serán iguales, a menos que el sistema interactúe con algún otro sistema cuyo estado no conozco con precisión (como, por ejemplo, un baño de calor).
Visto desde este punto de vista, el cambio en la entropía de von Neumann cuando se realiza una medición cuántica no es sorprendente. Si la entropía sólo representa la falta de información sobre un sistema, entonces, por supuesto, debería disminuir cuando obtenemos algo de información. En los comentarios que siguen, cuando me refiero a las interpretaciones de "colapso subjetivo", me refiero a las interpretaciones que tratan de interpretar el "colapso" de una función de onda como análogo al "colapso" de la distribución de probabilidad clásica, como se ha descrito anteriormente, y la entropía de von Neumann como análoga a la entropía de Gibbs. También se les llama " $\psi$ -interpretaciones "epistémicas".
Pero hay un problema, que es el siguiente: en el experimento descrito al principio de esta pregunta, estoy obteniendo un bit de información con cada medición, pero la entropía de von Neumann se mantiene constante (en cero) en lugar de disminuir un bit cada vez. En el caso clásico, "la información total que he obtenido sobre el sistema" + "la incertidumbre que tengo sobre el sistema" es constante, mientras que en el caso cuántico puede aumentar. Esto es inquietante, y supongo que lo que realmente quiero saber es si hay alguna interpretación conocida en la que esta información "extra" se contabilice de alguna manera (por ejemplo, tal vez podría provenir de los grados de libertad térmicos en el aparato de medición), o en la que se pueda demostrar que algo distinto de la entropía de von Neumann desempeña un papel análogo a la entropía de Gibbs.
0 votos
Publicado de forma cruzada en theoreticalphysics.stackexchange.com/q/1164/189