19 votos

¿Hay conservación de la información durante la medición cuántica?

Considere el siguiente experimento. Tomo un giro $\frac{1}{2}$ partícula y hacer un $\sigma_x$ medición (medir el giro en el $x$ dirección), entonces haga un $\sigma_y$ medición, luego otra $\sigma_x$ uno, entonces $\sigma_y$ y así sucesivamente para $n$ medidas. El formalismo de la mecánica cuántica nos dice que los resultados de estas mediciones serán aleatorios e independientes. Ahora tengo una cadena de bits completamente aleatorios, de longitud $n$ . Brevemente, mi pregunta es ¿de dónde procede la información de esta cadena?

La respuesta obvia es "las mediciones cuánticas son fundamentalmente indeterministas y es simplemente una ley de la física que se obtiene una cadena aleatoria cuando se hace eso". El problema que tengo con esto es que se puede demostrar que la evolución unitaria de los sistemas cuánticos conserva la entropía de von Neumann, al igual que la evolución hamiltoniana de un sistema clásico conserva la entropía de Shannon. En el caso clásico esto puede interpretarse como que "ningún proceso puede crear o destruir información a nivel microscópico". Parece que lo mismo debería ser cierto también para el caso cuántico, pero esto parece difícil de conciliar con la existencia de una "verdadera" aleatoriedad en la medición cuántica, que sí parece crear información.

Está claro que hay algunas interpretaciones para las que esto no es un problema. En particular, para una interpretación sin colapso, el Universo simplemente termina en una superposición de $2^n$ estados, cada uno de los cuales contiene un observador que mira una cadena de salida diferente.

Pero no soy un gran fan de las interpretaciones sin colapso, así que me pregunto cómo se las arreglan otras interpretaciones cuánticas. En particular, en la interpretación "estándar" (me refiero a la que la gente adhiere cuando dice que la mecánica cuántica no necesita una interpretación), ¿cómo se reconcilia la indeterminación de la medición con la conservación de la entropía de von Neumann? ¿Existe alguna interpretación distinta a la de no colapso que lo resuelva especialmente bien?

adenda

Me parece que vale la pena resumir mi pensamiento actual al respecto, y volver a intentar aclarar lo que realmente estoy pidiendo.

Quiero empezar hablando del caso clásico, porque sólo entonces puedo aclarar dónde parece romperse la analogía. Consideremos un sistema clásico que puede adoptar una de las siguientes características $n$ estados discretos (microestados). Como no sé inicialmente en qué estado se encuentra el sistema, lo modelo con una distribución de probabilidad.

El sistema evoluciona con el tiempo. Lo modelamos tomando el vector $p$ de probabilidades y multiplicándolo por una matriz T en cada paso de tiempo, es decir $p_{t+1} = Tp_t$ . El análogo discreto de la dinámica hamiltoniana resulta ser la suposición de que $T$ es una matriz de permutación, es decir, tiene exactamente un 1 en cada fila y columna, y todas sus otras entradas son 0. (Nótese que las matrices de permutación son un subconjunto de las matrices unitarias.) Resulta que, bajo esta suposición, la entropía de Gibbs (también conocida como entropía de Shannon) $H(p)$ no cambia con el tiempo.

(También vale la pena mencionar, como un aparte, que en lugar de representar $p$ como un vector, podría optar por representarlo como una matriz diagonal $P$ con $P_{ii}=p_i$ . Entonces se parece mucho al formalismo de la matriz de densidad, con $P$ desempeñando el papel de $\rho$ y $T$ siendo equivalente a la evolución unitaria).

Ahora digamos que hago una medición del sistema. Supondremos que no perturbo el sistema cuando hago esto. Por ejemplo, digamos que el sistema tiene dos estados, y que inicialmente no tengo ni idea de en cuál de ellos está el sistema, por lo que $p=(\frac{1}{2},\frac{1}{2})$ . Después de mi medición sé en qué estado se encuentra el sistema, así que $p$ se convertirá en $(1,0)$ o $(0,1)$ con igual probabilidad. He ganado un poco de información sobre el sistema, y $H(p)$ se ha reducido un poco. En el caso clásico siempre serán iguales, a menos que el sistema interactúe con algún otro sistema cuyo estado no conozco con precisión (como, por ejemplo, un baño de calor).

Visto desde este punto de vista, el cambio en la entropía de von Neumann cuando se realiza una medición cuántica no es sorprendente. Si la entropía sólo representa la falta de información sobre un sistema, entonces, por supuesto, debería disminuir cuando obtenemos algo de información. En los comentarios que siguen, cuando me refiero a las interpretaciones de "colapso subjetivo", me refiero a las interpretaciones que tratan de interpretar el "colapso" de una función de onda como análogo al "colapso" de la distribución de probabilidad clásica, como se ha descrito anteriormente, y la entropía de von Neumann como análoga a la entropía de Gibbs. También se les llama " $\psi$ -interpretaciones "epistémicas".

Pero hay un problema, que es el siguiente: en el experimento descrito al principio de esta pregunta, estoy obteniendo un bit de información con cada medición, pero la entropía de von Neumann se mantiene constante (en cero) en lugar de disminuir un bit cada vez. En el caso clásico, "la información total que he obtenido sobre el sistema" + "la incertidumbre que tengo sobre el sistema" es constante, mientras que en el caso cuántico puede aumentar. Esto es inquietante, y supongo que lo que realmente quiero saber es si hay alguna interpretación conocida en la que esta información "extra" se contabilice de alguna manera (por ejemplo, tal vez podría provenir de los grados de libertad térmicos en el aparato de medición), o en la que se pueda demostrar que algo distinto de la entropía de von Neumann desempeña un papel análogo a la entropía de Gibbs.

0 votos

Publicado de forma cruzada en theoreticalphysics.stackexchange.com/q/1164/189

8voto

Nathan Feger Puntos 7675

Aunque su afirmación de que

se puede demostrar que la evolución unitaria de los sistemas cuánticos conserva la entropía de von Neumann,

es efectivamente cierto, en la teoría cuántica y en particular en cualquier interpretación de "colapso" la evolución de un sistema cuántico se rige por dicha evolución unitaria excepto cuando el sistema está siendo medido; en esos momentos el sistema sufre un colapso proyectivo no unitario que sí no conservar la entropía de von Neumann y, por tanto, es libre de manipular el contenido informativo del mundo. (No estoy seguro de que se pueda argumentar que una medida proyectiva crea o destruye información. Lo que sí creo es que ciertamente hace que el mundo sea más (o al menos no menos) entrópico: si nos colapsamos sin saber la respuesta, hay una cosa más que averiguar sobre el mundo).

1 votos

Gracias por la respuesta. Por supuesto, es una vía válida. Pero todavía se necesita algo más para decirnos exactamente cuando se produzcan tales colapsos, de lo contrario te encuentras con problemas con el gato de Schrödinger, el amigo de Wigner, etc. Sin embargo, más seriamente, si una parte de un sistema cuántico interactúa con otra de tal manera que cuente como una medición, la entropía de von Neumann debería cambiar espontáneamente, y eso nunca lo observamos. Por eso creo que este argumento es un serio problema para las interpretaciones de colapso objetivo. (Sin embargo, las de colapso subjetivo están bien).

2 votos

Creo que su pregunta se convierte entonces exactamente en el problema (¡aún muy abierto!) de la medición. ¿Cuándo, exactamente, la evolución unitaria da paso a la medición proyectiva? ¿Cómo debe trazarse exactamente la línea de interpretación de Copenhague entre los objetos microscópicos y macroscópicos? ¿Es posible trazarla? Tal como yo lo veo, las interpretaciones de colapso objetivo no están ni de lejos en condiciones de responder a estas preguntas, y las interpretaciones de colapso subjetivo (¿muchos mundos?) posiblemente sólo lo ocultan. (continuación)

1 votos

No digo que sea una situación satisfactoria, pero no creo que la contradicción que observas en tu post original exista realmente. Realmente observamos estos cambios de entropía de von Neumann: pasar $|+\rangle=\sigma_x|+\rangle$ a través de un imán SG polarizado en Z y obtendrá (después de trazar la posición, es decir, si no mira el resultado de la medición) un estado mixto $\rho=\frac{1}{2}(|0\rangle\langle0|+|1\rangle\langle1|)$ con entropía de von Neumann positiva.

6voto

ManiacZX Puntos 1461

Dos cosas:

  1. La versión cuántica del teorema de Louiville es el hecho de que la evolución del tiempo es un operador unitario, es decir, que preserva las amplitudes.

  2. La medición no es misteriosa. El problema conceptual es preguntarse qué es lo clásico. Las mediciones, como todas las interacciones, son cuánticas: se trata el sistema como cuántico, el aparato de medición como cuántico y se les deja interactuar. El sistema global + el aparato evolucionan unitariamente. Ahora bien, el aparato de medición no se percibe a sí mismo en una superposición --- eso sería lógicamente absurdo, así que desde el punto de vista del aparato el sistema está "colapsado" a algún estado, que se correlaciona con el estado del aparato. Procedimentalmente, modelamos esto trazando sobre los grados de libertad en el aparato, y obtenemos una matriz de densidad para el sistema.

2 votos

Voy a apoyar a genneth y publicar mi respuesta como un comentario solamente. ... Las mediciones cuánticas son fundamentalmente indeterministas y es simplemente una ley de la física que se obtiene una cadena aleatoria cuando se hace eso. El teorema de Liouville sólo se aplica a los modelos de clásico física estadística, véase es.wikipedia.org/wiki/Liouville%27s_theorem_(Hamiltonian) ... Nuestro mundo no es clásico por lo que no tiene que obedecer el teorema de Liouville. La extensión cuántica sólo dice que la evolución es unitaria, es decir, que la probabilidad total es 1 para cualquier estado inicial, pero no que el azar esté prohibido.

3 votos

@genneth ¿Dirías que tu punto 2 es diferente a respaldar una interpretación de no colapso? Me suena como si dijeras que el sistema global + el aparato (+ el observador) está en una superposición de estados en los que se han producido diferentes resultados de medición, por lo que la función de onda nunca se colapsa, sino que sólo lo parece porque los observadores superpuestos son independientes entre sí. Veo claramente que lo que he descrito no es problemático bajo esa interpretación, pero me preguntaba cómo lo abordan otras interpretaciones.

0 votos

@LubošMotl Entiendo el análogo cuántico del teorema de Liouville. Implica que la entropía de von Neumann se conserva tanto como el teorema de Liouville clásico implica la conservación de la entropía de Shannon. Es esto lo que me cuesta conciliar con la presencia de la estocasticidad.

1voto

Weng Fai Wong Puntos 116

En la interpretación "estándar" la evolución unitaria sólo se produce cuando no hay observación.

La presencia del observador hace que la evolución no sea unitaria, por lo que pueden darse procesos no deterministas.

Esto hace que cualquier interpretación con colapso no sea simétrica frente a diferentes personas. Cierta persona distinguida (el observador) puede hacer el colapso y otras no. Esto significa que hay una persona viva en la Tierra con propiedades físicas especiales, la capacidad de hacer colapsar la función de onda. Quién es esa persona se puede determinar por medios físicos (aunque es bastante difícil porque requiere un buen aislamiento, actualmente imposible a las temperaturas a las que puede vivir la gente).

Cualquier interpretación que postule un colapso independiente del observador ("objetivo"), la igualdad de todas las personas, etc., es sencillamente errónea.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X