5 votos

Conexión entre diferentes tipos de entropía (entropía de Boltzmann, volumétrica y superficial)

En Wikipedia para Microcanonical Ensemble dice, La afirmación de Wikipedia sobre múltiples tipos de entropía

Se dice que $ \omega $ es un ancho de energía. No estoy completamente seguro de lo que eso significa, pero creo que significa que es una variable introducida para anular las unidades (como $ h $).

Solo estoy familiarizado con la Entropía de Boltzmann, pero al leer más, parece que solo la entropía de volumen reproduce la termodinámica.

La entropía de volumen $S_{v}$ y la temperatura asociada $T_{v}$ forman una estrecha analogía con la entropía y temperatura termodinámicas. Es posible demostrar exactamente que

$dE=T_{\rm {v}}dS_{\rm {v}}-\langle P\rangle dV,$

Ignorando la advertencia de que la solución preferida para estos problemas es evitar el uso del conjunto microcanónico, me preocupa de dónde vienen estas entropías. Tengo una intuición razonable para la entropía de Boltzmann ya que es un caso especial de entropía de la teoría de la información, pero estas otras entropías parecen no estar basadas en la teoría de la información. Además, tengo problemas para encontrar material adicional sobre ellas.

¿Puedes explicar el origen de la entropía de volumen y la entropía de superficie? Si es posible, explique su origen desde la teoría de la información para que pueda entenderlas mejor.

5voto

valerio92 Puntos 483

Puedes encontrar una muy buena discusión en K. Huang, Mecánica Estadística, capítulo 6. Usaré la notación de Wikipedia en lugar de la de Huang.

En el ensemble microcanónico, estás considerando un sistema con energía entre $E$ y $E+\omega$, con $\omega \ll E.

`

El volumen total del espacio de fases con energía entre $E$ y $E+\omega$ es

$$W(E)=\int_{E

Si defines la cantidad

$$v(E)=\int_{H

puedes ver que

$$W(E) = v(E+\omega)-v(E)$$

y en el límite en el que $\omega/E \rightarrow 0$, podemos escribir

$$W(E) = \frac{\partial v}{\partial E} \omega $$

Ahora, la entropía de Boltzmann se define como

$$S= k \log W(E)$$

Se puede demostrar que las siguientes definiciones

$$ \begin{align} S & = k \log W(E)\\ S & = k \log \left( \frac{\partial v}{\partial E} \right)\\ S & = k \log v(E) \end{align} $$

son equivalentes hasta una constante de orden $\log N$ o menor. Dado que $S$ suele ser del orden de $N$, esto significa que podemos considerar las expresiones anteriores como prácticamente equivalentes.

Básicamente, $W$ es una "hipercorteza", $v$ un hipervolumen y $\frac{\partial v}{\partial E}$ una hipersuperficie. Básicamente estamos diciendo que no importa si consideramos la corteza, el volumen o la superficie: el resultado será el mismo. La razón es el gran número de grados de libertad del sistema: $6N$, donde usualmente $N \simeq 10^{23}$.

Para un gas ideal,

$$v(E) = c_N V^N E^{3N/2}$$

donde $c_N$ es una constante y $V$ es el volumen. Por lo tanto, en este caso simple puedes verificar por ti mismo que las expresiones anteriores son iguales hasta una constante de orden $\log N$ o menor. En el caso más general, esto es una tarea más complicada.

1voto

Deb Puntos 6

Así es como imagino las diferentes entropías: El ensamble microcanónico establece que la energía total E es constante. Esta condición selecciona solo estados específicos del espacio de fases, formando una superficie en el espacio de fases (este esquema de wikipedia es una buena ilustración). Aquí, $\omega$ es el ancho (infinitesimal) de esta superficie. Esta es la base de la entropía de Boltzmann y de superficie, que difieren solo en un factor constante. Por otro lado, la entropía de Gibbs o de volumen considera todos los estados con una energía menor que $E$, lo que forma un volumen en el espacio de fases.

En las fórmulas, la diferencia es que la entropía de volumen utiliza $v(E)$, el volumen del espacio de fases con todos los estados de energía menor que $E$. Esta es la función acumulativa del número de estados en un dado $E$. Por lo tanto, la entropía de superficie utiliza la derivada $\frac{dv}{dE}$, donde $\omega$ es el ancho infinitesimal de la superficie.

Si se utiliza el ensamble canónico o si el sistema es lo suficientemente grande, ambas definiciones de entropía dan los mismos resultados. Sin embargo, en sistemas pequeños pueden diferir significativamente. Por ejemplo, la entropía de volumen siempre tiene una temperatura positiva $T_s > 0$, mientras que la entropía de superficie puede llevar a temperaturas negativas si el número de estados accesibles disminuye con el aumento de la energía.

Aún se discute en la comunidad científica cuál forma de entropía es apropiada en cada situación. Ver por ejemplo [1] vs [2] y [3]

[1] J. Dunkel and S. Hilbert, Inconsistent thermostatistics and negative absolute temperatures, Nature Physics 10, 67-72 (2014)

[2] R. Swendsen and J.-S. Wang, Gibbs volume entropy is incorrect, Phys. Rev. E 92, 020103 (2015)

[3] J. Poulter, In defense of negative temperature, Phys. Rev. E 93, 032149 (2016)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X