Si la entropía es sólo una medida de la "aleatoriedad" o el "caos" de un sistema, ¿por qué tiene unidades específicas? ¿Cuál es la razón de que las unidades de entropía sean J/K?
Respuestas
¿Demasiados anuncios?Las unidades de energía sobre temperatura (por ejemplo, J/K) utilizadas para la entropía en la definición termodinámica se derivan de una asociación histórica con la transferencia de calor bajo gradientes de temperatura; en otras palabras, las definiciones de temperatura y entropía están entrelazadas, siendo la entropía la propiedad más fundamental. La entropía puede considerarse como un potencial y la temperatura (o su inversa) como una fuerza generalizada asociada a los desplazamientos a lo largo de las dimensiones energéticas del potencial de entropía. La temperatura (inversa) es una medida del efecto de los cambios en la cantidad de energía sobre la entropía del sistema, como sugiere la siguiente definición:
$$\frac{1}{T}=\left(\frac{\partial S}{\partial U}\right)_V$$
Sin embargo si se parte de una definición mecánica estadística de la entropía,
$$S=k_\mathrm{B}\log\Omega$$
entonces es fácil ver que una definición sin unidades podría ser igual de adecuada:
$$S_{\mathrm{unitless}}=\log\Omega$$
Sin embargo, en ausencia de la constante de Boltzmann se necesita alguna otra forma de relacionar la entropía y la energía (por ejemplo, la transferencia de calor) en nuestro sistema convencional de unidades. Por supuesto, se puede subsumir $k_\mathrm{B}$ en la definición de una nueva escala de temperatura:
$$\frac{1}{T_\mathrm{new}}=\left(\frac{\partial S_\mathrm{unitless}}{\partial U}\right)_V$$
donde las escalas de temperatura antigua y nueva se relacionan como $T_\mathrm{new}=k_\mathrm{B}T$ . La nueva escala de temperatura tiene entonces unidades de energía.
La entropía no es "sólo" una medida del azar. Es la única propiedad física que da al universo una dirección temporal, es decir, que proporciona una "flecha del tiempo".
Además, una "medida de aleatoriedad" es una forma burda de caracterizar la entropía. Más bien, la entropía de un sistema es proporcional (a través de la constante de Boltzmann) al logaritmo del número de posibles microestados macroscópicamente indistinguibles que un sistema en un estado dado puede muestrear, ponderado por las probabilidades relativas de esos microestados.
Y lo que determina ( $k_B$ veces el logaritmo de) ¿cuántos microestados puede muestrear un sistema a una temperatura determinada? Es la cantidad de calor que hemos dejado fluir (reversiblemente) en el sistema dividida por la temperatura en cada punto.
Y por eso las unidades de entropía son energía/temperatura, porque es la integral de flujo de energía/temperatura la que determina el número de estados disponibles, y es el número de estados disponibles el que a su vez determina la entropía.
Más concretamente, la entropía de un sistema es la integral del inverso de la temperatura por la cantidad de flujo de calor reversible necesario para llevar ese sistema del cero absoluto a su temperatura actual. Es decir
$$S(T') =\int_{0}^{T'} dS= \int_{0}^{T'}\frac{\text{đ}q_{rev}}{T}$$