En palabras simples ¿cuál es la diferencia conceptual entre Gibbs y Boltzmann entropías?
Entropía de Gibbs: $S=-k_B\sum p_i\ln p_i$
Entropía de Boltzmann: $S=-k_B\ln \Omega$
En palabras simples ¿cuál es la diferencia conceptual entre Gibbs y Boltzmann entropías?
Entropía de Gibbs: $S=-k_B\sum p_i\ln p_i$
Entropía de Boltzmann: $S=-k_B\ln \Omega$
La entropía de Gibbs es la generalización de la entropía de Boltzmann para la celebración de todos los sistemas, mientras que la entropía de Boltzmann es sólo la entropía si el sistema es global en equilibrio termodinámico. Ambos son una medida de la microstates disponible a un sistema, pero la entropía de Gibbs no requieren que el sistema esté en un único y bien definido macrostate.
Esto no es difícil de ver: Para un sistema con una probabilidad de $p_i$ en un microestado, la entropía de Gibbs es
$$ S_G = -k_B \sum_i p_i \ln(p_i)$$
y, en equilibrio, todos los microstates pertenecientes al equilibrio macrostate son igualmente probables, por lo que, para $N$ estados, obtenemos con $p_i = \frac{1}{N}$
$$ S_G = -k_B \sum_i \frac{1}{N} \ln(\frac{1}{N}) = -k_B N \frac{1}{N} \ln(\frac{1}{N}) = k_B \ln(N)$$
por las propiedades de los logaritmos, donde el último término es la entropía de Boltzmann para un sistema con $N$ microstates.
La expresión $$ I=-\sum_i p_i\ln p_i $$ es una función de las probabilidades de $p_i$, también llamado entropía de información. Puede ser calculado para cualquier valor de $p_i$, incluso aquellos que no son apropiadas para un estado de equilibrio. En tal caso no tiene nada que ver con el equilibrio termodinámico de entropía $S$. Cuando algún estado de equilibrio $X$ es prescrito, sin embargo, las probabilidades correspondientes a $p_i^*$ de este estado son aquellos que maximizan $I$ (puede estar basada en consideraciones probabilísticas). Sólo entonces $k_B I[p^*]$ le da el valor que corresponde a la termodinámica la entropía $S(X)$ del estado $X$.
En el caso especial cuando todos los estados son igualmente probables, $p_i=\frac{1}{N}$ donde $N$ es el número de estados disponibles y $$ I = \ln N. $$
Así que la última expresión es un caso especial de la primera. Ya que la probabilidad de un estado de equilibrio termodinámico se cree que sólo dependen de la correspondiente energía de este estado, esta simplificación es apropiado cuando el sistema ha fijado y conoce energía $E$ - a continuación, todos los estados con esta energía son igualmente probables y que es suficiente contar con ellas como una función de $E$ y calcular la entropía $S$$k_B\ln N(E)$.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.