10 votos

¿Principio de incertidumbre para la información?

No estoy familiarizado (todavía) con la forma en que la teoría de la información puede surgir/usarse en QM/QFT, pero estaba pensando en esta cuestión:

Mientras que tenemos el principio de incertidumbre de Heisenberg en la medición de observables acoplados, ¿podemos expresarlo utilizando de alguna manera un concepto más fundamental/abstracto como la incertidumbre de la información (especialmente que tenemos el principio de conservación de la información como para la energía y el momento, y la simetría asociada, es decir, CPT)? en el sentido de que debido a que siempre hay algunos detalles que no podemos medir/conoce, ¿podemos expresar eso como una cierta incertidumbre de la información?

Y a pesar de la respuesta, por favor, explique por qué hay o no hay conexión/relación entre los dos conceptos.

11voto

Mark Mitchison Puntos 6760

La respuesta de Lubos es correcta: la información no es un observable, por lo que no tiene fluctuaciones en el sentido de que pueda entrar en una relación de incertidumbre. Sin embargo, sí existe una relación entre la "información" y el principio de incertidumbre, aunque no del tipo que parece esperar el PO.

En primer lugar, hay que tener en cuenta que la "conservación de la información" nunca podría ser una explicación del principio de incertidumbre. La información es no una cantidad conservada en la mecánica cuántica, ya que las mediciones forman parte del formalismo. Las mediciones, por definición, producen un cambio discontinuo en el contenido de información de un sistema con respecto a un observador. Es importante recordar que, a pesar de su actual estatus de moda como paradigma para entender la física, la información sigue sin ser una propiedad física de un sistema. Es más bien una propiedad de la relación entre un observador y un sistema. La única sutileza es que la mecánica cuántica impone una restricción fundamental a la cantidad de información que puede obtener cualquier observador.

Para entender cómo hacer que esta restricción sea cuantitativa, tendrás que aprender un poco de teoría de estimación cuántica. No voy a derivarlo todo aquí; puedes encontrar detalles en revisiones como, por ejemplo, este documento . La idea básica es que si se quiere estimar algún parámetro $\lambda$ de la que depende un estado, que puede ser o no un "observable" en el sentido tradicional, su precisión estará limitada por la Límite de Cramer-Rao : $$\mathrm{Var}(\lambda) \geq \frac{1}{M F(\lambda)},$$ donde $\mathrm{Var}(\lambda)$ es la varianza de la distribución de los resultados de la medición, $M$ es el número de mediciones y $F(\lambda)$ es la llamada información de Fisher. Se trata de un resultado de la teoría clásica de la información.

Dado un sistema y un parámetro a estimar, la información de Fisher depende generalmente de la elección de las medidas. En el caso cuántico, se puede hacer aún más y demostrar que la información de Fisher está limitada desde arriba por la Información de Quantum Fisher $H(\lambda)$ por lo que el límite cuántico de Cramer-Rao es $$\mathrm{Var}(\lambda) \geq \frac{1}{M H(\lambda)}.$$ La información cuántica de Fisher da el límite superior absoluto de la cantidad de información que un observador puede obtener sobre el parámetro $\lambda$ midiendo el sistema. Es la información de Fisher correspondiente a la base de medición óptima.

¿Qué relación tiene esto con el principio de incertidumbre? Especializar en el caso particular de un sistema en estado puro, donde la dependencia de los parámetros se produce por la transformación unitaria $$ |\psi(\lambda)\rangle = U_{\lambda}|\psi(0)\rangle,$$ donde $$U_{\lambda} = e^{-\mathrm{i} \lambda G}, $$ et $G$ es el generador hermitiano de la transformación unitaria. Esto incluye escenarios como la incertidumbre de energía-tiempo, donde $G = \hat{H}$ es el hamiltoniano (generador de traslaciones temporales) y $\lambda = t$ es el tiempo de espera tras la preparación inicial del estado $|\psi(0)\rangle$ (Yo puse $\hbar = 1$ ). Entonces se puede derivar la siguiente desigualdad a partir del límite cuántico de Cramer-Rao: $$ \mathrm{Var}(\lambda) \langle \psi(0)| G^2 |\psi(0)\rangle \geq \frac{1}{4 M}, $$ que es exactamente una relación de incertidumbre. Tenga en cuenta que este ejemplo es ligeramente artificial: las relaciones de incertidumbre son más generales que este escenario. Sin embargo, esperamos que este ejemplo le dé una idea de cómo las relaciones de incertidumbre pueden vincularse a los conceptos de la teoría de la información. (También muestra que las relaciones de incertidumbre en el tiempo de la energía no requieren un montón de agitación para derivar, como algunas personas parecen creer).

Otra conexión sutil que vale la pena mencionar es un hecho muy profundo sobre la mecánica cuántica: "la ganancia de información implica perturbación". Esto significa que es imposible ganar información sobre un sistema sin perturbarlo. Cuanta más información se obtiene, mayor es la perturbación. Véase este documento para más información. Si se toma la compensación entre información y perturbación como un principio fundamental para la mecánica cuántica, como en este documento reciente Entonces tienes una forma heurística de entender el origen físico del principio de incertidumbre.

7voto

heathrow Puntos 25

Está buscando el principio de incertidumbre de Hirschman Beckner, descrito en la página de Wikipedia aquí . Aunque Hirschman fue el primero, me enteré de ello leyendo la tesis de Everett sobre la interpretación de muchos mundos de la mecánica cuántica, que es un intento de reformular la mecánica cuántica utilizando las herramientas de información de Shannon.

La declaración del principio es que

$$ H(x) + H(p) \ge \ln(e\pi)$$

Y que esta desigualdad se satura exactamente para paquetes de ondas gaussianas. Fue conjeturada por Hirschman, y demostrada por Beckner en 1975. La tesis de Everett aparece después del artículo de Hirschman, pero no me queda claro en qué sentido va el plagio, si es que hay alguno, ya que es muy probable que se trate de un descubrimiento simultáneo.

El argumento de Everett muestra que los gaussianos son mínimos locales para la suma de $H(x)$ et $H(p)$ y da fuertes razones para creer que es un mínimo global. Esta creencia está justificada por la prueba rigurosa. La formulación teórica de la información es más poderosa que la formulación en términos de varianza, ya que si la distribución x es una suma de muchos picos estrechos separados, la incertidumbre del momento es como la anchura de los picos, no como la distancia entre ellos, aunque la varianza total es como la distancia entre ellos, no como la anchura de los picos mismos.

6voto

Nick Puntos 583

La relación de incertidumbre de Heisenberg es válida para los observables, es decir, algo que puede ser medido por un aparato y que, según las reglas universales de la mecánica cuántica, está representado por un operador lineal en el espacio de Hilbert.

La información no es un observable - por ambas razones (no puede ser medida por un aparato; y no es un operador lineal aunque "el logaritmo de la matriz de densidad" $-\ln\rho$ se acerca bastante a esa descripción), por lo que no puede entrar en la relación de incertidumbre de Heisenberg. Por cierto, "la cantidad de información" es algo incierto o mal definido incluso en la física clásica, así que esta incertidumbre no tiene nada que ver con la mecánica cuántica.

Este último punto puede explicarse con un argumento más sencillo. Nótese que la desigualdad de Heisenberg tiene $\hbar$ la constante reducida de Planck en el lado derecho. Es una cantidad que se envía a cero en el límite clásico. Desde nuestro punto de vista, el de los grandes observadores, es un número pequeño, por lo que la relación de incertidumbre es un "efecto menor" a escala macroscópica.

Pero en las unidades habituales, $\hbar$ es dimensional (unidades de acción, es decir, de energía por tiempo), así que está claro que los observables del lado izquierdo también deben ser dimensionales. La posición y el momento lo son; la información (el número de bits, un número adimensional) no lo es. Así que, según el análisis dimensional, la incertidumbre de la información no tiene nada que ver con la mecánica cuántica.

La propia afirmación de que la información es "más fundamental" es algo especulativo y cargado. Uno puede crear esas "prioridades" y sí, efectivamente, lo que sabemos es la información. Sin embargo, mientras expresemos lo que sabemos de alguna manera tangible, tenemos que utilizar observables particulares como $x,p$ o el momento angular, etc. Sólo cuando lleguemos a este nivel -llámese fundamental o no, pero debería- podremos hablar de principios bien definidos como el principio de incertidumbre. Es un principio muy fundamental; sólo que no está de acuerdo con la filosofía (empíricamente injustificada) de que la información es más fundamental que los observables particulares.

2voto

shingara Puntos 111

En primer lugar, permítanme subrayar que el principio de incertidumbre de Heisenberg era un principio cuando se estaba desarrollando la mecánica cuántica, pero ahora es un teorema derivado de postulados más fundamentales de la mecánica cuántica (sigue llamándose principio por razones históricas).

En cuanto a su pregunta, debe comprobar Derivación de la entropía relativa del principio de incertidumbre con información lateral cuántica et Relaciones de incertidumbre a partir de propiedades entrópicas simples publicado recientemente en PRL

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X