¿Por qué en von Neumann expresión de la entropía cuántica hemos traza de la matriz de densidad de expresión? ¿Por qué no fuera de la diagonal plazo juegan un papel?
Respuestas
¿Demasiados anuncios?Hay un número de razones de peso para adoptar el de von-Neumann expresión \begin{align} S_\mathrm{vn}(\rho) = -k_B\mathrm {tr} \rho\ln\rho \end{align} como la definición de entropía para un mecánico-cuántica del sistema con la matriz de densidad de $\rho$.
De acuerdo con la entropía de Gibbs
En primer lugar, tenga en cuenta que tras el trabajo de Boltzmann, Gibbs introduce una noción estadística de la entropía, lo que ahora se llama la entropía de Gibbs, en el siglo 19 a través de la expresión \begin{align} S_\mathrm{Gibbs}(p_1, \dots, p_n) =-k_B\sum_{i=1}^n p_i\ln p_i \end{align} para una estadística mecánica del sistema con microstates $1, \dots, n$ y una probabilidad de $p_i$ que el sistema de acceso de microestado $i$ en su evolución. Yo voy a dejar que usted lea acerca de la relevancia de la entropía de Gibbs fórmula para la mecánica estadística y la termodinámica.
Ahora, considere la posibilidad de una $n$-dimensional sistema cuántico con el espacio de Hilbert $\mathcal H$ y la densidad del operador $\rho$ y Hamiltonianos $H$. En un sistema en equilibrio, la densidad de operador conmuta con $H$; \begin{align} [\rho, H] = 0, \end{align} así que podemos dejar a $|1\rangle, \dots, |n\rangle$ denotar un ortonormales base para $\mathcal H$ que consiste en la simultánea de vectores propios de a$\rho$$\mathcal H$. En base a esto, la densidad de operador diagonal; \begin{align} \rho = \mathrm{diag} (p_1, \dots, p_n) \end{align} Por otra parte, debido a que la densidad de la matriz es no negativo y auto-adjunto, cada diagonal de la entrada $p_i$ es no negativo y real, de modo que la secuencia de $p_1, \dots, p_n$ puede ser visto como una distribución de probabilidad, donde $p_i$ representa el conjunto de probabilidad de que el sistema está en estado de $|i\rangle$. Además, es straightfoward para mostrar que la de von-Neumann entropía expresión reproduce con precisión la entropía de Gibbs; \begin{align} S_\mathrm{vn}(\rho) = S_\mathrm{Gibbs}(p_1, \dots, p_n). \end{align}
Pero espera! No hay más!
De acuerdo con Shannon (información) de la entropía
En su trabajo seminal de
"Una Teoría Matemática de la Comunicación,"
Claude Shannon introdujo la noción de entropía llamado entropía de información, que a menudo se llama entropía de Shannon. Para una determinada distribución de probabilidad, $p_1, \dots, p_n$, y para un determinado número real positivo $k$, la entropía de Shannon es \begin{align} S_\mathrm{Shannon}(k; p_1, \dots, p_n) = -k\sum_{i=1}^np_i\log p_i. \end{align} La entropía de Shannon puede casi considerarse como una medida del contenido de la información de la distribución de probabilidad.
Resulta que la visualización de esta manera, uno puede formular de la mecánica estadística desde la perspectiva de la maximización de la entropía de Shannon sujeto a restricciones como estaba muy bien discutido por E. T. Jaynes poco después de que el artículo de Shannon;
"La Teoría de la información y de la Mecánica Estadística"
Pero aviso que la entropía de Shannon es la misma expresión que la entropía de Gibbs que se mostró anteriormente es la misma que la de von-Neumann entropía siempre que interpretar adecuadamente lo que la matriz de densidad nos está diciendo.
Porque von Neumann define de esa manera. Él hizo probablemente porque traza tiene buenas propiedades matemáticas - el resultado no depende de la base en la que la matriz de densidad se expresa, y es igual a $\sum_k -\rho_{kk} \ln \rho_{kk}$ donde $\rho_{kk}$ son los autovalores de la matriz de densidad, la cual es similar a la expresión $\int -\rho\ln \rho \,dqdp$ utilizado antes de que la física estadística. Puede haber otras razones, pero es importante tener en cuenta que es sólo una definición.