27 votos

¿Cómo se puede demostrar $S=-\sum p\ln p$?

¿Cómo hace uno para demostrar la fórmula de la entropía $S=-\sum p\ln p$? Obviamente los sistemas en el nivel microscópico son totalmente determinado por el microscópico de las ecuaciones de movimiento. Así que si quieres introducir una ley en la parte superior de eso, usted tiene que demostrar la consistencia, es decir, la entropía no puede ser un postulado. Me imagino que es un derivado de la teoría de la probabilidad para el sistema general. ¿Sabes esa línea?

Una vez que usted tiene un razonamiento, ¿qué son las hipótesis? Estos supuestos de no ser válida para sistemas especiales? Estos sistema no obedecer la termodinámica, mecánica estadística y no tiene ningún tipo de temperatura no importa cuán general?

Si therodynamics/statmech son completamente generales, ¿cómo se aplica el sistema en un punto de partícula de las órbitas de los otros?

21voto

heathrow Puntos 25

El teorema se llama el silencioso teorema de codificación, y es a menudo probado en torpe maneras en la teoría de la información de los libros. El punto de que el teorema es calcular el mínimo número de bits por cada variable que usted necesita para codificar los valores de N idénticas variables aleatorias elegidas a partir de $1...K$ cuyas probabilidades de tener un valor de $i$ entre $1$ y $K$ es $p_i$. El número mínimo de bits que necesita, en promedio, por cada variable en la gran N límite se define como la información de la variable aleatoria. Es el mínimo número de bits de información por variable es necesario grabar en un ordenador, así como para recordar a los valores de N copias con fidelidad perfecta.

Si las variables están distribuidos de manera uniforme, la respuesta es obvia: hay $K^N$ posibilidades de N lanzamientos, y $2^{CN}$ posibilidades para $CN$ bits, por lo que $C=\log_2(k)$ para la gran N. menos de CN bits, y usted no será capaz de codificar los valores de las variables aleatorias, porque todos ellos son igualmente probables. Más allá de eso, usted tendrá más de espacio. Esta es la información en un uniforme de la variable aleatoria.

Para una distribución general, usted puede obtener la respuesta con un poco de la ley de los grandes números. Si usted tiene muchos de los ejemplares de la variable aleatoria, la suma de las probabilidades es igual a 1,

$$ P(n_1, n_2, ... , n_k) = \prod_{j=1}^N p_{n_j}$$

Esta probabilidad está dominado por la gran N por las configuraciones en las que el número de valores de tipo i es igual a $Np_i$, ya que este es el número promedio del tipo i. De modo que el valor de P en cualquier configuración típica es:

$$ P(n_1,...,n_k) = \prod_{i=1}^k p_i^{Np_i} = e^{N\sum p_i \log(p_i)}$$

Así que para aquellos posibilidades, en las que la probabilidad no es muy pequeño, la probabilidad es más o menos constante e igual al valor anterior. El número total de M(N) de estos no-muy raro posibilidades es lo que se requiere para hacer la suma de las probabilidades es igual a 1.

$$M(N) \propto e^{ - N \sum p_i \log(p_i)}$$

Para codificar que de la M(N) las posibilidades que se realiza en cada uno de los N recoge, por lo tanto, necesitará un número de bits de B(N), que es suficiente para codificar todas estas posibilidades:

$$2^{B(N)} \propto e^{ - N \sum p_i \log(p_i)}$$

lo que significa que

$${B(N)\sobre N} = - \sum p_i \log_2(p_i)$$

Y todos subleading constantes son lavados por la gran N límite. Esta es la información, y la forma asintótica de la igualdad anterior es el de Shannon silencioso teorema de codificación. Para hacer que sea riguroso, todo lo que necesitas son algunas cuidado de límites en el gran número de estimaciones.

Réplica de coincidencias

Hay otra interpretación de la entropía de Shannon en términos de coincidencias que es muy interesante. Consideran que la probabilidad de que tienes que elegir dos valores de la variable aleatoria, y se obtiene el mismo valor dos veces:

$$P_2 = \sum p_i^2$$

Esto es claramente una estimación de cuántos valores diferentes hay para elegir. Si preguntamos cuál es la probabilidad de obtener el mismo valor de k en k-lanza, es

$$P_k = \sum p_i p_i^{k-1}$$

Si usted pregunta, ¿cuál es la probabilidad de una coincidencia después de que $k=1+\epsilon$ tiros, se obtiene la entropía de Shannon. Esto es como la réplica truco, así que creo que es bueno tener en cuenta.

La entropía de la información

Para recuperarse de la mecánica estadística a partir de la de Shannon de la información, que son:

  • los valores de la macroscópico cantidades conservadas (o sus termodinámico conjugados), energía, impulso, momento angular, carga y número de partículas
  • el macroscópicas de las restricciones (o sus thermodynaic conjugados) volumen, las posiciones de los objetos macroscópicos, etc.

A continuación, la distribución estadística de las microscópicas de configuración es el máximo de la entropía de la distribución (como la poca información que se conoce de usted como sea posible) en el espacio de fase satisfacer la restricción de que las cantidades que corresponden a las cantidades macroscópicas.

7voto

Herb Wilf Puntos 196

El mejor (en mi humilde opinión) la derivación de la $\sum p \log p$ fórmula de los postulados básicos es la dada originariamente por Shannon:

Shannon (1948) la Teoría Matemática de la Comunicación. Bell System Technical Journal. http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6773024

Sin embargo, Shannon fue de que se trate no con la física, pero con la telegrafía, por lo que su prueba aparece en el contexto de la transmisión de información en lugar de la mecánica estadística. Para ver la relevancia de la obra de Shannon a la física, las mejores referencias son documentos por Edwin Jaynes. Escribió decenas de artículos sobre el tema. Mi favorito es el efecto bastante largo

Jaynes, E. T., 1979, `¿Dónde estamos en el Máximo de la Entropía?' en La Máxima Entropía Formalismo, R. D. Levine y M. Tribus (eds.), M. I. T. Press, Cambridge, MA, p. 15; http://bayes.wustl.edu/etj/articles/stand.on.entropy.pdf

1voto

Felix Puntos 509

La forma funcional de la entropía $S = - \sum p \ln p$ se puede entender si se requiere que la entropía es muy amplia y depende del estado microscópico de las probabilidades de $p$.

Considere un sistema de $S_{AB}$ compone de dos subsistemas a y B. Entonces $S_{AB} = S_A +S_B$ y $p_{AB} = p_A p_B$ como a y B son disociadas.

$$ S_{AB} = - \sum p_{AB} \ln p_{AB} = -\sum p_{Un} \sum p_B \ln p_A -\sum p_{Un} \sum p_B \ln p_B $$

$$ = -\sum p_{Un} \ln p_A - \sum p_B \ln p_B = S_A + S_B $$ Este argumento es válido hasta un factor, que resulta ser la constante de Boltzmann $k_B$ en mecánica estadística: $S = - k_B \sum p \ln p$, que es debido a Gibbs, mucho antes de que Shannon.

0voto

Henry Puntos 16

Acercarse a este desde una perspectiva puramente Física perspectiva, esta es la entropía de Gibbs de un sistema. En primer lugar, aunque el concepto de entropía puede ser extendido generalmente estamos discutiendo de equilibrio termodinámica, y este es, sin duda, donde la entropía de Gibbs se introdujo por primera vez.

Usted, por supuesto, derecho que, técnicamente, la dinámica podría ser completamente descrito por sus ecuaciones de movimiento, pero entonces no sería realmente se necesita mucho para el tema de la termodinámica. Me refiero a la termodinámica en algunos aspectos no es tan "fundamental" como de otros temas de la física, en la que no se intenta dar una descripción completa de todo sobre el sistema que estamos estudiando. Por lo general, discutiendo los sistemas grandes (y por lo que buscar las propiedades macroscópicas), o pequeños sistemas que interactúan con un gran ambiente. (por ejemplo, no tiene una gran cantidad de sentido hablar de la temperatura de un electrón), En realidad, es totalmente práctico para la búsqueda de una descripción determinista de tales sistemas (incluso sin la teoría del Caos y de la mecánica cuántica el número de ecuaciones sería demasiado enorme) y el uso de la termodinámica.

Con el equilibrio de estadística de la termodinámica (que está en busca de una justificación de la termodinámica clásica basada en los promedios de una descripción microscópica), se inicia con el principio de igualdad de probabilidades a priori que dice que para un sistema aislado que se ha quedado sola por un largo tiempo (vagos, pero, básicamente, que está en equilibrio) cada microestado disponible para el sistema tiene la misma probabilidad de ser ocupados. Esta es una gran suposición, y hay un montón de gente que le gustaría ser capaz de justificar de manera adecuada, pero a menudo se sostiene en la simetría (con la información que tienen no hay ninguna razón para suponer que un particular microestado sería más probable que cualquier otro). Más que eso, simplemente, funciona.

La entropía de un sistema aislado fue entonces postula a ser $S=k \ ln(\Omega)$ por Boltzmann donde $\Omega$ es el número de microstates disponible para el sistema (es más fácil crear esto suponiendo que un número discreto de microstates, especialmente si usted está hablando acerca de Boltzmann/entropía de Gibbs). Es un postulado, sino que debe ser coherente con la clásica de la termodinámica la entropía. La entropía de Gibbs es una extensión natural de este cuando se considera que los sistemas que están en contacto térmico con el medio ambiente y el microestado probabilidades no son iguales. Usted puede demostrar que es consistente con la clásica de la termodinámica la entropía para un número de sistemas, y realmente muestra cómo la entropía puede considerarse como una medida de la incertidumbre acerca de los detalles microscópicos del sistema.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X