12 votos

¿Por qué $S = k_B \ln W$ ¿no se aplica siempre?

Durante mucho tiempo pensé que la fórmula de Boltzmann para la entropía $S = k_B \ln W$ era una afirmación universalmente cierta, o más bien el definición de entropía desde la perspectiva de la mecánica estadística. Sin embargo, desde entonces he comprendido que sólo es aplicable para un sistema aislado (es decir, el conjunto microcanónico) para el que todos los microestados del sistema son igualmente probables. El enunciado más general es la entropía de Gibbs

$$S = -k_B \sum_i P_i \ln P_i \,.$$

Sin embargo, he visto una derivación de la fórmula de Boltzmann tal que no puedo ver por qué dicha fórmula no siempre se aplica. Esperaba que alguien pudiera señalar el error en el siguiente razonamiento.

De la termodinámica clásica sabemos que

$$T = \left(\frac{\partial U}{\partial S}\right)_V \,.$$

Consideremos ahora dos sistemas en contacto térmico que pueden intercambiar energía. Si suponemos que todos los microestados del conjunta sistema son igualmente probables, argumentamos que el equilibrio se alcanzará para una división de la energía que maximice el número de posibles microestados correspondientes. Así, tenemos

$$ \frac{d}{dE_1}\big(W_1(E_1)W_2(E_2)\big) = 0 \,. $$

Trabajando a través de esto, llegamos a la condición de que

$$ \frac{d \, \ln W_1(E_1)}{E_1} = \frac{d\, \ln W_2(E_2)}{E_2} \,,$$

pero como el equilibrio corresponde a temperaturas iguales, hacemos la definición natural de que

$$\frac{1}{k_B T} = \frac{d \, \ln W(E)}{d E}\,,$$ donde elegimos esta forma particular de la expresión de la izquierda ya que da como resultado que la energía fluya en la dirección correcta (de caliente a frío) para dos sistemas con temperaturas muy similares.

Uniendo esto con el resultado anterior, identificando $U =E$ Debemos tener que

$$ S = k_B \ln W \,.$$

Pregunta: ¿en qué parte de este argumento he hecho alguna suposición o error, de manera que esta fórmula se aplica sólo a una clase específica de sistemas? ¿Por qué no puedo utilizar esta fórmula para determinar la entropía de (digamos) uno de los dos sistemas que puse en contacto térmico (en la discusión anterior sobre la temperatura)? ¿Por qué la fórmula de Gibbs es la correcta para los sistemas que pueden intercambiar energía? También utilizamos, creo, esta definición de temperatura en la derivación de la distribución canónica/Boltzmann (véase, por ejemplo aquí ), y sin embargo en este caso el embalse no es un sistema aislado, por lo que habría pensado que esta expresión no sería aplicable. Gracias.

3voto

bonnie Puntos 16

El problema con la definición de Boltzmann es, como has demostrado claramente, que su utilidad depende de la suposición de que tu sistema está en equilibrio con su entorno. Si no se asume primero el equilibrio y posteriormente se establecen las temperaturas como iguales, no se puede demostrar que la entropía de Boltzmann satisface la Primera Ley y, por lo tanto, definirla con sentido como entropía. Sin embargo, la entropía de Gibbs sigue proporcionando una definición significativa porque, por ejemplo, es posible relacionarla con la función de partición mediante

$$S \equiv -k_B\sum_s P_s\ln P_s= k_B \left(\ln Z + \beta\frac{\partial \ln Z}{\partial \beta}\right)=\frac{\partial}{\partial T}(k_B T \ln Z)$$

y, por tanto, utilizarla para calcular otras variables como la energía libre de Helmholtz.

Además, está asumiendo que $W$ es lo suficientemente grande como para ser aproximado como una cantidad continua. $W$ es sin embargo un número entero y la cantidad $\mathrm d\ln W$ no está bien definido en un sistema con un pequeño número de microestados. Por lo tanto, la justificación que has aportado aquí se vendría abajo. Este problema nunca se plantea si se parte de la definición de la entropía de Gibbs y se trabaja a partir de ella.

1voto

Alice Kirkpatrick Puntos 21

Pregunta: ¿en qué parte de este argumento he hecho alguna suposición o error, de modo que esta fórmula sólo se aplica a una clase específica de sistemas?

La única suposición que se hace es que los dos sistemas conectados interactúan débilmente, de modo que cuando el primer sistema tiene una energía media en torno a $E_1$ el macroestado del sistema conjunto tiene un volumen de fase $W_1(E_1)W(E-E_1)$ . Creo que esto se justifica para todos los sistemas de la termodinámica clásica. Si los sistemas interactuaran fuertemente y la energía no fuera una función homogénea del número de partículas y del volumen, el volumen de la fase podría no estar dado por dicha fórmula.

¿Por qué no puedo utilizar esta fórmula para determinar la entropía de (digamos) uno de los dos sistemas que he puesto en contacto térmico (en la discusión anterior sobre la temperatura)?

Puede; incluso si el subsistema 1 interactúa con el 2 y su energía $E_1$ varía en principio, para los sistemas macroscópicos esta variación es despreciable y sólo el valor medio $U_1 = \langle E_1\rangle$ es importante para la entropía. Se puede tratar el subsistema como si fuera un sistema aislado del mismo volumen y energía dado por $E_1 = U_1$ .

¿Por qué la fórmula de Gibbs es la correcta para los sistemas que pueden intercambiar energía?

La fórmula de Gibbs no es "la fórmula correcta" de la entropía. El objetivo de la fórmula de Gibbs es que es una función de la distribución de probabilidad $p_k$ con la importante propiedad de que el máximo valor posible de este funcional para el sistema con energía media prescrita $U_1$ da la entropía a esta energía media; numéricamente, $k_B \ln W_1(E_1)$ y $\max_{\sum_k \epsilon_k p_k = U_1}\left\{ k_B\sum_k -p_k\ln p_k\right\}$ son las mismas para sistemas densos de estados contables $k$ ( $\epsilon_k$ es la energía del estado $k$ .)

0voto

Karlson Puntos 866

La entropía definida por Boltzmann puede aplicarse en sistemas con energía fluctuante. El único requisito es la definición precisa de $\Delta\Gamma$ el número de microestados dentro del macroestado. Cuando el tiempo es muy largo, la distribución de probabilidad en el espacio de fase tiende a ser constante en cada punto permitido. Esto justifica el conjunto microcanónico.

Si la energía fluctúa, se necesita un supuesto adicional: el sistema debe ser grande y estar alejado de los puntos críticos. Así, la fluctuación de una cantidad extensa como la energía $E$ va como $\sim \sqrt{N}$ y la expectativa $\Delta E$ como $\sim N$ cuando el número de subsistemas $N$ es grande. Esto significa que la distribución de la probabilidad en la energía es muy estrecha ( $\Delta E\ll \bar{E}$ ).

La última suposición significa que la distribución de la probabilidad en la energía es aproximadamente constante en $\bar{E}$ con la anchura $\Delta E$ y luego cero cada fueron. Entonces, podemos definir $\Delta \Gamma$ como:

$$ \Delta \Gamma = \frac{d \Gamma (\bar{E})}{dE}\Delta E $$

donde $\Gamma (E)$ es el número de estados por debajo de la energía $E$ y \frac{d \Gamma (E)}{dE} la densidad de estados.

Entonces se puede definir la entropía como $k_B\ln (\Delta\Gamma)$ . Nótese que la entropía no depende de la forma precisa de la distribución de probabilidad. Cuando no se pueden hacer estas aproximaciones, significa que la entropía depende fuertemente de la forma de la distribución de probabilidad.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X