La termodinámica es, en muchos sentidos, un cálculo de simetrías y hoy justificamos estas bonitas propiedades por una mecánica estadística subyacente, así que supongo que mi respuesta es una especie de "se revelará más en tu curso de mecánica estadística, cuando lo tomes". Sin embargo, vale la pena dar el argumento de una manera muy rápida que requiere un dominio del cálculo.
Macroestados y microestados
Supongamos que un sistema tiene $N$ diferentes configuraciones de bajo nivel para algunos grandes $N$ -- Un espacio de posibilidades que llamamos "espacio de fase" del sistema. Para dar un ejemplo, para un metro cúbico de aire a temperatura ambiente y presión atmosférica estándar hay algo del orden de $2.5~\cdot~ 10^{25}$ moléculas diatómicas, pero el número de configuraciones que pueden ocupar, teniendo cada molécula una posición y un momento diferente y un momento angular limitado por la incertidumbre de Heisenberg, es más cercano a $10^{2.6~\cdot~10^{26}}$ diferentes configuraciones posibles. Así que cuando digo que $N$ es grande, quiero decir que es tan grande que tenemos que estudiarlo y cuantificar su incertidumbre en el espacio logarítmico.
De esto, hay tal vez $n$ diferentes configuraciones observables. (Suele ser un número a escala humana como $10^9$ más o menos, nuestros diales sólo tienen una precisión finita para todas las cosas que nos gustaría medir). Así que cada configuración "observable" es en realidad un conjunto realmente grande de estas configuraciones de "nivel inferior" y tiene sentido pensar en lo "grande" que es cada conjunto, el número de "microestados" en cada "macroestado". Por analogía con los cristales, que suelen estar formados por "granos" conectados de estructura reticular perfecta, llamamos a esto "granulación gruesa" del espacio de fases.
Casi siempre estudiamos este número de microestados por macroestado tomando el logaritmo del número; a esto lo llamo mirar en el "espacio logarítmico". Tomamos el logaritmo por dos razones. En primer lugar, la razón práctica: como has visto, normalmente estos números son tan grandes que sólo el espacio logarítmico puede dar una estimación adecuada de nuestra incertidumbre; nuestra incertidumbre está muy, muy por encima incluso del nivel de "una cifra significativa" en el que tenemos alguna idea del número de ceros que siguen a un solo dígito incierto. el número de ceros a estas escalas. En segundo lugar, de forma más teórica: si sentamos dos sistemas no interactivos uno al lado del otro sin que interactúen, y pensamos en un macroestado del sistema combinado en el que el primero está en el macroestado $A$ y el segundo está en macroestado $B$ El microestado del sistema microestado general del sistema $(a, b)$ vive en el producto cartesiano $A\times B$ que tiene el tamaño $|A||B|.$ Así que la medida ingenua de la "grandeza del conjunto" es multiplicativo y suele llamarse multiplicidad del conjunto, y tomando el logaritmo se crea un aditivo medida.
Espontaneidad
Ahora que entendemos esto, imaginemos que dejamos el sistema solo, ¿qué ocurre "espontáneamente"? Bueno, nuestra incertidumbre se extiende sobre el estado del sistema hasta que no tenemos ni idea de en qué microestado se encuentra, y podemos imaginar que si le damos las condiciones adecuadas para "aislarlo" del mundo (sin transferencia de energía, sin transferencia de momento, por lo tanto, paredes fijas rígidas, sin transferencias de partículas, etc.), entonces básicamente elige un microestado uniformemente al azar. Sin embargo, esto no significa que un macroestado se elige uniformemente: se eligen proporcionalmente a su multiplicidad, $p_i = \sigma_i / \sum_i\sigma_i.$ Cuando arriba dije que "casi siempre" utilizamos el espacio logarítmico, éste es el único aspecto en el que no lo hacemos. En la práctica, los gradientes de estos números son enormes y la probabilidad suele agruparse en una pequeña colección de macroestados.
Ahora bien, si el sistema no comienza en este grupo de macroestados más probables, entonces, a medida que nuestras incertidumbres se multiplican, parecerá cambiar hacia ese grupo. A esto lo llamamos espontáneo transición entre nuestros macroestados, es puramente impulsado por que nos volvemos menos seguros sobre el estado subyacente. Así que si pensamos, por ejemplo, en una caja con un divisor y hay agua de color rojo a la izquierda, agua de color azul a la derecha, y quitamos el divisor y los colores empiezan a agitarse y mezclarse porque nos estamos volviendo más inciertos sobre el estado subyacente del mundo: esto es precisamente lo que queremos decir cuando usamos esta palabra "espontáneo".
Un ejemplo más limpio: ponemos dos sistemas en contacto térmico, pero los aislamos entre sí y del resto del mundo. ¿Qué ocurre? Pues que la energía puede flujo entre ellos, pero ¿cuál es el criterio para saber si hace ? Bueno, cada estado tiene una log-multiplicidad $\sigma_{1,2}$ y un paquete de energía que fluye del sistema 1 al sistema 2 $\delta E$ cambia la log-multiplicidad general por $$\delta \sigma_{12} = \frac{\partial \sigma_1}{\partial E_1} (-\delta E) + \frac{\partial \sigma_2}{\partial E_2} \delta E,$$ porque las log-multiplicidades son aditivas. Esto ocurrirá si la cantidad $\frac{\partial \sigma_2}{\partial E_2} - \frac{\partial \sigma_1}{\partial E_1}$ es positivo. Por lo tanto, vemos que hay un flujo de energía espontáneo desde un sistema de menor $\frac{\partial\sigma}{\partial E}$ a un sistema de mayor $\frac{\partial\sigma}{\partial E}$ Así que $\frac{\partial\sigma}{\partial E}$ es un número generalmente positivo que mide la "frialdad". Como esto refleja nuestra experiencia con la temperatura, pero exactamente al revés (la temperatura es un número positivo tal que el calor fluye de una temperatura más alta a una más baja), definimos una "temperatura termodinámica" proporcional a $\tau=\left(\frac{\partial\sigma}{\partial E}\right)^{-1}.$ Entonces la energía fluye espontáneamente de las temperaturas más altas a las más bajas, para dejar de fluir espontáneamente cuando las dos temperaturas son iguales.
A veces tenemos el valor de nuestras convicciones y utilizamos $\tau$ directamente, que mide esta temperatura termodinámica con unidades de energía, ya que $\sigma$ es un número puro y la derivada añade unidades de energía inversa que volvemos a invertir. Más a menudo tratamos de aproximar nuestras escalas de termómetro líquido definiendo $T = \tau/k_\text B$ para alguna constante $k_\text B,$ dividiendo esta energía en trozos llamados "kelvins", de modo que hay 100 trozos entre los puntos de ebullición y congelación del agua a presión atmosférica, porque eso es lo que la escala Celsius utilizaba para sus grados. Entonces encontramos que esto requiere que el punto de congelación del agua esté en 273,15 kelvin, conectando completamente las dos escalas. Para ayudar a nuestras ecuaciones también solemos definir la "entropía" $S = k_\text B~\sigma.$
Resulta que cuando hacemos la mecánica estadística para el gas ideal monatómico encontramos el Ecuación Sackur-Tetrode y esto da la ley de los gases ideales en la forma $P~V=N~k_\text B~T$ y así un gas ideal en un pistón a presión constante tiene $P,N$ constante mientras $V\propto L,$ y esto funciona como un termómetro para la temperatura anterior $T$ .
La ecuación de estado, conectada a la termodinámica
También vale la pena declarar explícitamente lo que se mantiene constante en esta derivada parcial $\frac{\partial S}{\partial E}$ Las cajas no están intercambiando partículas y las paredes siguen siendo rígidas, por lo que no están intercambiando volumen o momento; sólo están intercambiando energía. Esto nos da una buena forma de escribir la ecuación en términos de "diferenciales"; como la entropía es una función de estado encontramos que nuestra relación fundamental para el estado del sistema es $$dE = T~dS - P~dV + \sum_i \mu_i ~dN_i,$$ donde el estado del sistema está siendo definido por su energía, la entropía del microestado actual, su volumen y los distintos números de partículas que lo habitan $N_i$ . Mi etiqueta de cambio de energía por unidad de volumen a entropía constante es "presión" $P$ arriba por razones obvias; mi etiquetado del cambio de energía por molécula de especies $i$ se conoce como el "potencial químico" de esa molécula-especie $\mu_i.$ Vemos que esta definición de entropía conecta directamente con las $\int dE/T$ operaciones que las generaciones anteriores pensaban antes de conocer la mecánica estadística que las justifica.
Factores de Boltzmann y energías libres
Si ahora suponemos que uno de estos sistemas $1,2$ es mucho mayor que otro, digamos el primero, vemos que los gradientes también serán mucho mayores para uno que para otro, y encontraremos que la entropía del sistema $S_{12}$ está dominada por la entropía del primer sistema $S_1$ y su temperatura $T_1$ . Si pensamos en el sistema más pequeño que transita entre un estado con energía $E_A$ a un estado con energía $E_B$ esta energía proviene del sistema mayor y por lo tanto su entropía $S_1$ cambiará a $S_1^{(0)} + (E_A - E_B)/(k_\text B~T_1).$ Convirtiendo de nuevo a multiplicidades, el cociente de las multiplicidades es simplemente el cociente de las probabilidades y encontramos $$\frac{p_B}{p_A} \approx \frac{\exp\left(S_1^{(0)} + (E_A - E_B)/(k_\text B~T_1)\right)}{\exp\left(S_1^{(0)}\right)}.$$ Vemos que debemos asignar probabilidades para el sistema más pequeño según $p_S = e^{-E_S/(k_\text B T_1)}/Z,$ para alguna constante de normalización $Z = \sum_S e^{-E_S/(k_\text B T_1)}.$ Hay muchas cosas que se pueden hacer con esta llamada "función de partición" $Z$ pero este post ya es muy largo. Pero esto es lo que significa mantener un sistema "a temperatura constante" y es notable que podamos obtener las probabilidades de los distintos estados directamente de los niveles de energía de los estados en tal caso.
Lo que más cambia es la ecuación de estado. La ecuación de estado nos permite especificar un montón de derivadas parciales "manteniendo S constante" gracias a esta bonita apariencia de $dS$ en la ecuación de estado que podemos establecer como $0$ . En cambio, ahora tenemos que cambiar esto por un $dT$ por lo que podemos obtener derivadas "a temperatura constante" examinando el caso cuando $dT=0.$ Hay una manera excepcionalmente fácil de hacerlo, y es definiendo la "energía libre" $F=E - T~S.$ Cuando hacemos esto encontramos que en realidad $$dF = -S~dT - P~dV + \mu_i~dN_i.$$ Así que ahora, por ejemplo $-\left({\partial F\over\partial V}\right)_T$ es una expresión válida para la presión. El significado físico de la energía libre pasa a ser, por tanto, "el cambio de energía, pero incluyendo también la energía que entra/sale del gran sistema para mantener la temperatura constante."
Del mismo modo, existe una energía libre $H = E + P~V$ que llamamos entalpía. Existe porque $dH = T~dS + V~dP + \mu_i~dN_i,$ cambiar la condición de volumen constante por una condición de presión constante. En un sentido real, las diferencias de entalpía son diferencias de energía que incluyen el efecto de una presión externa constante que hace trabajo en un sistema hasta que llegan a la misma presión. Y hay una energía libre $E + P~V - T~S$ que hace la temperatura y la presión constantes al mismo tiempo, y eso se llama la energía libre de Gibbs. Incluso podemos restar términos $\mu_i N_i$ para indicar que la caja en la que pensamos es libre de intercambiar partículas con su entorno, mucho más grande. Cada una de estas energías libres tiene un nombre, y también cada una de estas situaciones tiene un nombre que termina en "conjunto" Así que empezamos en el "conjunto microcanónico" y cuando termalizamos con un sistema mucho más grande pasamos al "conjunto canónico" y si luego permitimos que el sistema intercambie partículas con su entorno obtenemos el "conjunto gran canónico" donde las probabilidades son ahora $p_S=\exp(-(E_S - \mu N_S)/(k_\text B T))/\mathcal Z$ donde ahora $\mathcal Z$ es la función de partición "gran canónica", etc.
Espero que eso te dé una buena base para empezar a aprender sobre estas cosas.
0 votos
Esta parece una subparte razonablemente buena.