33 votos

Una entropía de la función Wigner

¿Existe una entropía que se pueda utilizar para la distribución de cuasi-probabilidad de Wigner? (En el sentido de una distribución de probabilidad en el espacio de fase, no - sólo la entropía de von Neumann).

No se puede utilizar simplemente $\int - W(q,p) \ln\left[ W(q,p) \right] dq dp$ ya que la función de Wigner no está definida positivamente.

La motivación de la pregunta es la siguiente:

Un trabajo I. Biaynicki-Birula, J. Mycielski, Relaciones de incertidumbre para la entropía de la información en la mecánica ondulatoria (Comm. Math. Phys. 1975) (o aquí ) contiene una derivación de un principio de incertidumbre basado en una entropía de la información: $$-\int |\psi(q)|^2 \ln\left[|\psi(q)|^2\right]dq-\int |\tilde{\psi}(p)|^2 \ln\left[|\tilde{\psi}(p)|^2\right]dp\geq1+\ln\pi.$$ Una de las consecuencias de la relación anterior es el principio de incertidumbre de Heisenberg. Sin embargo, la versión entrópica funciona también en entornos más generales (por ejemplo, un anillo y la relación de incertidumbre posición- momento angular).

Como $|\psi(q)|^2=\int W(q,p)dp$ y $|\tilde{\psi}(p)|^2=\int W(q,p)dq$ y en el caso separable (es decir, una función de onda gaussiana) la función de Winger es sólo un producto de las probabilidades en posición y en momento, es tentador buscar un funcional tipo entropía que cumpla la siguiente relación: $$1+\ln\pi\leq\text{some_entropy}\left[ W\right]\leq -\int |\psi(q)|^2 \ln\left[|\psi(q)|^2\right]dq-\int |\tilde{\psi}(p)|^2 \ln\left[|\tilde{\psi}(p)|^2\right]dp.$$

2 votos

Creo que la fórmula correcta se obtiene de la ingenua $-\int W\ln W$ sustituyendo el producto (entre las dos cosas, y dentro del logaritmo, cuando, por ejemplo, se expande con Taylor) por el producto-estrella relevante para la mecánica cuántica. En otras palabras, primero se calcula el operador de densidad $\rho$ a la distribución de Wigner y luego calcular $-{\rm Tr} \rho \ln \rho$ fuera de ella.

4 votos

@LubošMotl: $-\text{\Tr}\rho \ln \rho$ es la entropía de von Neumann por lo que es simplemente cero para los estados puros.

1 votos

En el caso gaussiano, la relación de incertidumbre entrópica está saturada (al menos cuando el estado es puro y "exprimido" en las direcciones canónicas). En ese caso, $\text{some_entropy}[w]=1+\ln \pi$ . Por supuesto, todavía hay espacio para la optimización en la dirección, pero no es muy interesante. ¿Qué aplicación tiene en mente?

16voto

La función de Wigner es simplemente una representación particular de un estado cuántico y, por lo tanto, sólo tiene entropía en la medida en que el estado la tenga. Uno puede preguntarse si existen cantidades entrópicas que tengan una representación elegante en términos de la función de Wigner, y es muy posible que existan tales cantidades. De hecho, la entropía lineal $1-\mathrm{tr}(\rho^{2})$ donde $\mathrm{tr}(\rho^{2}) \propto \int W (p,q)^{2}$ tiene una forma clara. Sin embargo, al igual que la entropía de von Neumann, ¡dará cero para un estado puro! Ya has dicho que te gustaría una entropía que no diera siempre cero para poder hacer afirmaciones interesantes como la relación de incertidumbre anterior. Sin embargo, las relaciones de incertidumbre surgen cuando se suman dos o más cantidades de entropía.

Ampliaré mis observaciones un poco más formalmente. Las entropías clásicas, como la entropía de Shannon, se definen sobre cadenas de bits. Podemos definir una entropía mecánica cuántica definiendo una medida que nos dé una cadena de bits. Para un observable $M$ con valores propios $\lambda_{j}$ y proyectores $P_{j}$ en el subespacio correspondiente, podemos definir una cadena de bits $X_{M}(\rho)=\{ x_{1}, x_{2},... x_{j}... \}$ donde $x_{j}=\mathrm{tr} ( \rho P_{j} )$ . Ahora podemos convertir esto en una entropía por medios clásicos como tomar la entropía de Shannon $S( X_{M}(\rho))$ . Si el estado es un estado propio de la base de medición, la entropía será cero.

¿Cómo encaja la entropía de von Neumann en este cuadro? Bueno, una definición equivalente a la habitual es la siguiente: $S_{vonN}(\rho)=\min \{ S( X_{M}(\rho)) |M=M^{\dagger} \}$ que es simplemente la mínima entropía de medición posible.

¿Dónde están las relaciones de incertidumbre? Bueno, para tener una relación de incertidumbre debemos tener 2 observables de medición que no conmutan. Si no tienen estados propios comunes se obtiene una relación de incertidumbre simplemente sumando las 2 entropías. La desigualdad que has citado es simplemente $S_{P}(\rho)+S_{X}(\rho)$ para la posición más la incertidumbre del momento. Como se señala en los comentarios, esta desigualdad puede estar saturada, por lo que no hay esperanza de mejorarla.

Mi opinión es que no tiene sentido pedir una entropía fuera de un contexto de medición, por lo que esto es lo que hay que decidir primero. Si lo que realmente te interesa es la posición y el momento, creo que la desigualdad citada dice todo lo que hay.

Este es mi primer intento de respuesta en el intercambio de pilas, así que espero que sea útil.

7voto

La entropía que buscas puede ser la conocida como entropía de Wehrl. Se obtiene sustituyendo la función de Wigner $W_\psi(q,p)$ en $-\int W \log W$ por la función Husimi, que es la convolución de la función Wigner con una gaussiana, $$ H_\psi(q,p) = \frac{1}{\pi} \int W_\psi(q',p') \exp\left( -(q-q')^2 -(p-p')^2 \right) \mathrm{d}q' \mathrm{d} p' . $$ (He puesto $\hbar=1$ .) Como la función Husimi es no negativa $$ S_\psi := - \int H_\psi(q,p) \log H_\psi(q,p) \mathrm{d}q \, \mathrm{d} p $$ está bien definida. Un buen punto de partida puede ser Gnutzmann & Zyczkowski: Las entropías de Rényi-Wehrl como medidas de localización en el espacio de fases, J. Phys. A 34 10123 .

4voto

Hay una manera de manejar esto para una función de espacio de fase diferente, $f(x,k)=\langle x|\hat{\rho}|k\rangle$ . Me han dicho que esto se conoce a veces como la función Mehta, que se utiliza sobre todo cuando los operadores están en orden estándar. Resulta que esta función es su propia transformada de Fourier en 2D (hasta la fase), lo que te permite escribir un principio de incertidumbre entrópico en términos de una sola entropía similar a la que tenías en mente. También funciona para estados mixtos. La única referencia que puedo encontrar viene del capítulo de Bialynicki-Birula y Rudnicki en Complejidad estadística , " Relaciones de incertidumbre entrópica en la física cuántica ," sección 1.5.3. Rudnicki me dice que se trata de una investigación original que notaron mientras escribían el capítulo. En su notación, la desigualdad es como su relación 1.24,

$H^{(x,p)}>1-\ln2-\ln\left(\frac{\delta x \delta p}{h}\right)$ .

No es más fuerte que el principio de incertidumbre entrópico original, pero a diferencia de la versión de entropía de Wehrl no es más débil.

Por supuesto, si realmente quieres ir a lo cuántico, probablemente deberías preocuparte más por la entropía de von Neumann al final. Un par de referencias que comparan las dos desigualdades de entropía para la función Wigner son Braunss y Zachos . Adoptan el enfoque de definir la entropía clásica como una entropía cuántica con desplazamiento, similar a lo que sugirió Luboš, luego con el límite $\hbar \rightarrow 0$ . Esto termina dando la relación 7 o 9 de Zachos (copiada abajo), cualquiera de las cuales puede responder a su pregunta.

$0 \le S_q \le S_{cl}-\ln h$

$0 \le S_q \le \ln \left(\frac{e \sigma^2}{2 \hbar}\right)$

2voto

Encontré esta pregunta por casualidad ayer mientras buscaba artículos sobre la entropía de Werhl. Puede que haya encontrado una posible respuesta tras revisar las propiedades de la distribución de cuasiprobabilidad de Wigner en http://en.wikipedia.org/wiki/Wigner_quasiprobability_distribution#The_Wigner.E2.80.93Weyl_transformation .

Considere la propiedad 7 en la sección "Propiedades matemáticas". Para el operador $\hat G $ , $\langle \hat G \rangle$ es el "promedio del espacio de fase" de la transformada de Wigner. Sustituya $\hat G = - \ln \hat \rho$ . Esto puede reducirse a la entropía de von Neumann en la representación de la posición, pero después de integrar el momento y una de las variables de posición, obtengo $$ \langle - \ln \hat \rho \rangle = \int dx dy \langle x + \frac{y}{2} | \hat \rho | x - \frac{y}{2} \rangle \langle x - \frac{y}{2} | - \ln \hat \rho | x + \frac{y}{2} \rangle . $$

3 votos

Si podemos hacer la sustitución $u = x + \frac{y}{2}, v = x - \frac{y}{2}$ entonces podemos escribir $ \langle - \ln \hat \rho \rangle = \int du dv \langle u | \hat \rho | v \rangle \langle v | - \ln \hat \rho | u \rangle , $ que sería simplemente la entropía de von Neumann.

2voto

Jose Puntos 11

Para el segundo candidato, asumo que la distribución de Wigner $ W(q,p) $ es suave y continua. Esta suposición se asumió implícitamente con la primera entropía candidata.

Dada la propiedad $ \lvert W(q,p) \rvert \le 2/h = 1/\pi \hbar$ que $ W(q,p) $ está acotado, y las propiedades que has mencionado de cómo $ W(q,p) $ se refiere a $ \langle q \lvert \hat \rho \rvert q \rangle $ y $ \langle p \lvert \hat \rho \rvert p \rangle $ deberíamos tener eso

$$ W(q,p) \le \int W(q,p) dp = \langle q \lvert \hat \rho \rvert q \rangle , $$ $$ W(q,p) \le \int W(q,p) dq = \langle p \lvert \hat \rho \rvert p \rangle . $$

Con la propiedad $ W^*(q,p) = W(q,p) $ y la propiedad que mencioné de cómo $ W(q,p) $ se refiere al valor de la expectativa de un operador $ \hat G $ tenemos la propiedad

$$ 2 \pi \hbar \int \int W(q,p)^2 dq dp = \mathrm {Tr} ( \hat \rho^2 ) \le 1 . $$

Observando que $ \int \langle q \lvert \hat \rho \rvert q \rangle dq = \int \langle p \lvert \hat \rho \rvert p \rangle dp = \mathrm {Tr} ( \hat \rho ) = 1 $ entonces

$$ \int \int \langle q \lvert \hat \rho \rvert q \rangle \langle p \lvert \hat \rho \rvert p \rangle dq dp = \mathrm {Tr} ( \hat \rho )^2 = 1 . $$

Dado que este integrando está en el espacio de fase, es lógico que tengamos una desigualdad similar a la de Cauchy-Schwarz,

$$ 2 \pi \hbar W (q,p)^2 \le \langle q \lvert \hat \rho \rvert q \rangle \langle p \lvert \hat \rho \rvert p \rangle . $$

Refiriéndonos a la conjetura planteada con la primera entropía candidata y utilizando de nuevo la función convexa

$$ f(x) = - x \ln x , $$

entonces podemos tener

$$ S_{W^2} \le S_q + S_p , $$

donde $ S_q $ y $ S_p $ se definen de la misma manera que con la primera entropía candidata, y

$$ S_{W^2} = \int \int f ( 2 \pi \hbar W(q,p)^2 ) dq dp = - \ln (2 \pi \hbar) \mathrm {Tr} (\hat \rho^2 ) - 2 \pi \hbar \int \int f ( W(q,p)^2 ) dq dp . $$

Si esto puede llamarse entropía, entonces hay que demostrar la desigualdad de Cauchy-Schwarz. Pero como se ha dicho, este es un intento de encontrar una entropía que utiliza explícitamente $ W(q,p) $ .

Leyendo de nuevo la pregunta, puede haber un tercer candidato, también relacionado explícitamente con $ W(q,p) $ . Teniendo en cuenta lo que se dijo sobre la separabilidad cuando $ \langle q \lvert \hat \rho \rvert q \rangle $ es gaussiano, entonces

$$ W(q,p) \le \lvert W(q,p) \rvert \le \langle q \lvert \hat \rho \rvert q \rangle \langle p \lvert \hat \rho \rvert p \rangle $$

y también puede darse el caso de que

$$ S_{ \lvert W \rvert } \le S_q + S_p , $$

donde

$$ S_{ \lvert W \rvert } = \int \int f ( \lvert W(q,p) \rvert ) dq dp . $$

Sin embargo, como $ W(q,p) $ no es necesariamente positiva definida, podríamos tener que $ \int \lvert W(q,p) \rvert dq dp > 1 $ lo que significa que puede ser posible tener $ S_{\lvert W \rvert} < 0 $ . Tal vez, entonces, deberíamos considerar también $ - \int \int W(q,p) \ln \lvert W(q,p) \rvert dq dp $ .

0 votos

Gracias. Por cierto, he atado el enfoque con $-\int W(q,p) \ln|W(q,p)| dq dp$ . Entonces $S_w\leq S_q + S_p$ parecía muy prometedor... hasta que he descubierto que para el primer estado excitado (es decir, el estado de Fock n=1) se rompe por muy poco (y de hecho era el único estado para el que no se mantiene).

0 votos

¡Es bueno saberlo! ¿El resultado era general para cualquier sistema, o quizás para una distribución gaussiana de Wigner en particular? ¿Y por cuánto es una cantidad ínfima? ¿La cantidad estaba en un logaritmo? Espero que alguno de estos resultados te sirva. Si no es así, por favor, ¡díganos por qué!

0 votos

Para n=1 no es una función gaussiana. Cuando se trata de "cuánto" tendría que cavar en mis notas (Voy a tratar de hacerlo esta semana).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X