Después de pensarlo un poco, esto es lo que creo que podría ser una explicación.
Sea $$ \Omega(V, N) = \frac{V^N}{h^{3N}}\frac{2\pi^{3N/2}(3Nmk_BT)^{(3N-1)/2}}{\Gamma(3N/2)}\Delta p $$ para alguna constante $T$ y donde $\Delta p$ es cierta incertidumbre en el impulso. Esta es la multiplicidad para un gas ideal monatómico a cierta temperatura constante sin recuento correcto de Boltzmann.
Primero argumentaré que la multiplicidad no corregida es realmente válida, y que la paradoja de Gibbs puede evitarse.
Para mayor comodidad, simplificamos la expresión para $\Omega(V, N)$ . \begin{align*} \Omega(V, N) &= \frac{V^N}{h^{3N}}\frac{2\pi^{3N/2}(3Nmk_BT)^{(3N-1)/2}}{\Gamma(3N/2)}\Delta p \\ &= \frac{(3N/2)^{(3N-1)/2}}{\Gamma(3N/2)}\left[\frac{(2\pi mk_B T)^{3/2}}{h^3}V\right]^{N}\sqrt{\frac{2}{mk_BT}}\Delta p \end{align*} Sea \begin{align*} f(N) &= \frac{(3N/2)^{(3N-1)/2}}{\Gamma(3N/2)} \\ \lambda &= \frac{h}{\sqrt{2\pi mk_B T}} \\ \delta &= \sqrt{\frac{2}{mk_BT}}\Delta p \end{align*} entonces \begin{align*} \Omega(V, N) &= f(N)\left(\frac{V}{\lambda^3}\right)^{N}\delta \end{align*}
Según la configuración habitual para la paradoja de Gibbs, considere el sistema siguiente
![](https://i.stack.imgur.com/Nl9j3.png)
donde las cajas izquierda y derecha están en equilibrio térmico pero separadas por un divisor, y sus volúmenes y número de partículas se denotan por $V_1, N_1$ y $V_2, N_2$ respectivamente. También limitamos $N_1/V_1=N_2/V_2$ por lo que ambas cajas tienen presiones iguales.
Se dice entonces que la multiplicidad total del sistema es $$ \Omega^{(?)}_\text{sys} = \Omega(V_1, N_1)\Omega(V_2, N_2) \,, $$ pero yo diría que esto es incorrecto.
Supongamos que sólo hay una partícula en cada caja, el sistema se caracterizaría entonces por las coordenadas del espacio de fase $(\vec{q}_1,\vec{p}_1,\vec{q}_2,\vec{p}_2)$ donde $\vec{q}_i$ es la posición de la partícula $i$ y $\vec{p}_i$ es el momento de la partícula $i$ . La cantidad $\Omega^{(?)}_\text{sys}$ correspondería en realidad a la multiplicidad de una distribución del espacio de fases en la que las posiciones se distribuyen así
![](https://i.stack.imgur.com/b86p4.png)
Sin embargo, esto representa sólo un subconjunto de los estados que son consistentes con nuestras macrovariables (que era, una partícula en cada caja). En realidad, la distribución de posiciones debería ser
![](https://i.stack.imgur.com/3jQGF.png)
Dado que las partículas son macroscópicamente idénticas (nuestras macrovariables no distinguen entre ellas), no hay razón para creer que nuestro sistema existe sólo en un subconjunto de los microestados disponibles, como sugiere la fig. 2. Por supuesto, el sistema está definitivamente en uno de los microestados disponibles. Por supuesto, el sistema está definitivamente en una de las regiones cuadradas de la distribución de posiciones, no puede evolucionar entre las dos. Si quisiéramos insista que el sistema está en un cuadrado específico, debemos tener una manera de prescribir esta configuración usando nuestras macrovariables, pero esto es equivalente a requerir que las partículas sean macroscópicamente distinguibles.
Otra razón por la que $\Omega^{(?)}_\text{sys}$ no es la multiplicidad correcta es porque se calculó multiplicando la multiplicidad del subsistema de la caja izquierda, por la del subsistema de la caja derecha. Esto sólo funciona si los microestados del sistema total pueden dividirse en dos "submicroestados" no correlacionados. Si nos fijamos en la fig. 3, los microestados no pueden dividirse en subestados independientes. Si $\vec{q}_1$ es una posición en la casilla izquierda, entonces $\vec{q}_2$ debe ser una posición en la casilla derecha.
La multiplicidad del sistema debería ser realmente (en el caso de una partícula por caja) $$ \Omega_\text{sys} = \Omega(V_1, 1)\Omega(V_2, 1) \times 2 \,, $$ donde multiplicamos por dos para tener en cuenta el volumen correcto del espacio de fase. Para un número general de partículas por caja, es $$ \Omega_\text{sys} = \Omega(V_1, N_1)\Omega(V_2, N_2) \times {N_1+N_2 \choose N_1,N_2}\,, $$ donde en su lugar hemos multiplicado por un coeficiente multinomial. Intuitivamente, estamos diciendo que si $(\vec{q}_i,\vec{p}_i)$ se encuentra en una región del espacio de fases que cumple con nuestra prescripción macroscópica, entonces también lo hará cualquier permutación de los pares posición-momento.
Ahora retiramos el separador entre las cajas y dejamos que las partículas se mezclen. La multiplicidad del sistema es ahora $$ \Omega_\text{sys}' = \Omega(V_1+V_2, N_1 + N_2) \,. $$
Esto resulta ser igual (más o menos) a la multiplicidad antes de quitar el divisor $\Omega_\text{sys}$ En otras palabras, la paradoja de Gibbs se resolvió cuando determinamos correctamente la multiplicidad inicial del sistema.
Ahora demostramos su "igualdad". \begin{align*} \Omega_\text{sys} &= \Omega(V_1, N_1)\Omega(V_2, N_2) \times {N_1+N_2 \choose N_1,N_2} \\ &= f(N_1)f(N_2)\left(\frac{V_1}{\lambda^3}\right)^{N_1}\left(\frac{V_2}{\lambda^3}\right)^{N_2}\frac{(N_1+N_2)!}{N_1!N_2!}\delta^2 \end{align*} Toma el logaritmo, es decir, calcula la entropía. \begin{align*} \ln\Omega_\text{sys} &= \ln f(N_1) + \ln f(N_2) + N_1\ln\left(\frac{V_1}{\lambda^3}\right) +N_2\ln\left(\frac{V_2}{\lambda^3}\right) + \ln\left(\frac{(N_1+N_2)!}{N_1!N_2!}\right) + 2\ln \delta \end{align*} Descarta el término constante. \begin{align*} &\approx \ln f(N_1) + \ln f(N_2) + N_1\ln\left(\frac{V_1}{\lambda^3}\right) +N_2\ln\left(\frac{V_2}{\lambda^3}\right) + \ln\left(\frac{(N_1+N_2)!}{N_1!N_2!}\right) \end{align*} Se puede demostrar que $\ln f(N) \sim 3N/2$ comme $N\to\infty$ . \begin{align*} &\approx \frac{3(N_1+N_2)}{2} + N_1\ln\left(\frac{V_1}{\lambda^3}\right) +N_2\ln\left(\frac{V_2}{\lambda^3}\right) + \ln\left(\frac{(N_1+N_2)!}{N_1!N_2!}\right) \end{align*} Recordemos que $N_1/V_1=N_2/V_2$ . \begin{align*} &= \frac{3(N_1+N_2)}{2} + N_1\ln\left(\frac{V_1/N_1}{\lambda^3}\right) +N_2\ln\left(\frac{V_2/N_2}{\lambda^3}\right) + N_1\ln N_1 + N_2\ln N_2 + \ln\left(\frac{(N_1+N_2)!}{N_1!N_2!}\right) \\ &= \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{V_1/N_1}{\lambda^3}\right) + N_1\ln N_1 + N_2\ln N_2 + \ln\left(\frac{(N_1+N_2)!}{N_1!N_2!}\right) \end{align*} Utiliza la aproximación de Stirling. \begin{align*} &= \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{V_1/N_1}{\lambda^3}\right) + (N_1+N_2)\ln(N_1+N_2) \\ &= \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{(N_1+N_2)V_1/N_1}{\lambda^3}\right) \\ &= \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{V_1+V_2}{\lambda^3}\right) \end{align*} Por lo tanto, para grandes $N_1$ y $N_2$ , $$ \ln\Omega_\text{sys} \approx \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{V_1+V_2}{\lambda^3}\right) \,. $$
Por otro lado, la entropía después de eliminar el divisor es \begin{align*} \ln\Omega_\text{sys}' &= \ln(\Omega(V_1+V_2, N_1+N_2)) \\ &= \ln f(N_1+N_2) + (N_1+N_2)\ln\left(\frac{V_1+V_2}{\lambda^3}\right) + \ln \delta\\ &\approx \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{V_1+V_2}{\lambda^3}\right) \\ &= \ln\Omega_\text{sys} \,. \end{align*}
Por lo tanto, tanto $\Omega_\text{sys}$ y $\Omega_\text{sys}'$ conducen a la misma entropía, y no se gana entropía eliminando el divisor.
Como nota al margen, sólo hemos demostrado que $\Omega_\text{sys}$ y $\Omega_\text{sys}'$ son iguales cuando se ignoran los términos de bajo orden. En realidad, tampoco debemos esperar que sean exactamente iguales. Antes de retirar el divisor, cada caja contenía un número definido de partículas, pero después de retirar el divisor, el número de partículas de cada caja será variable.
Así, la paradoja de Gibbs se resuelve sin necesidad de utilizar correctamente el recuento de Boltzmann. Si el enfoque "ingenuo" para calcular la multiplicidad fue correcto todo el tiempo, ¿por qué deberíamos seguir insistiendo en dividir por $N!$ para explicar la indistinguibilidad? ¿Cómo es la división por $N!$ ¿incluso justificado?
El hecho de no utilizar correctamente el recuento de Boltzmann tiene un inconveniente, y es que la entropía deja de ser amplia . Por entropía extensiva, entiendo, aquella en la que se cumple lo siguiente. La entropía de un sistema total, es igual a la suma de las entropías de "cada subsistema considerado aisladamente", independientemente de que algunos subsistemas sean "idénticos". Esto es equivalente a requerir que la multiplicidad del sistema total, sea un producto de las multiplicidades de 'cada subsistema cuando se considera aisladamente'. $$ \Omega_\text{total} = \prod_i \Omega_\text{subsystem $ i $} $$ La multiplicidad que hemos estado utilizando hasta ahora, claramente no satisface esta propiedad, tuvimos que multiplicar por un coeficiente multinomial para obtener la multiplicidad total correcta del sistema; $$ \Omega_\text{total} \neq \Omega_\text{left box}\times\Omega_\text{right box} \,, $$ donde $\Omega_\text{left box}$ es la multiplicidad de la casilla izquierda, cuando ésta se considera aisladamente, y de forma similar para $\Omega_\text{right box}$ .
Existe una conexión natural entre la forma en que hemos estado calculando las multiplicidades hasta ahora y el recuento correcto de Boltzmann. Reordenando la ecuación que relaciona la multiplicidad total del sistema (antes de eliminar el divisor) y las multiplicidades de las casillas izquierda y derecha (consideradas aisladamente), encontramos \begin{gather*} \Omega_\text{sys} = \Omega(V_1, N_1)\Omega(V_2, N_2) \times \frac{(N_1+N_2)!}{N_1!N_2!} \\ \frac{\Omega_\text{sys}}{(N_1+N_2)!} = \frac{\Omega(V_1, N_1)}{N_1!}\frac{\Omega(V_2, N_2)}{N_2!} \end{gather*}
El recuento correcto de Boltzmann absorbe los factoriales en las multiplicidades, por lo que si definimos \begin{align*} \Omega_\text{sys}^{(B)} &\equiv \frac{\Omega_\text{sys}}{(N_1+N_2)!} \\ \Omega^{(B)}(V, N) &\equiv \frac{\Omega(V, N)}{N!} \end{align*} restauramos lo familiar $$ \Omega_\text{sys}^{(B)} = \Omega^{(B)}(V_1, N_1)\Omega^{(B)}(V_2, N_2) $$
Desde $\Omega_\text{sys}^{(B)}$ difiere de $\Omega_\text{sys}$ sólo por un múltiplo constante (número total de partículas $N_1+N_2$ es constante aquí), maximización de la entropía definida como $k_B\ln \Omega_\text{sys}^{(B)}$ y la maximización de la entropía definida como $k_B\ln \Omega_\text{sys}$ predecirán los mismos estados de equilibrio.
Esencialmente, lo que hemos demostrado es que la multiplicidad de un gas ideal monatómico, calculada con o sin recuento correcto de Boltzmann (en adelante, CBC), conduce a una entropía que, cuando se maximiza, predice los mismos estados de equilibrio. Se podría justificar la multiplicidad calculada sin CBC mediante el teorema de Liouville y la hipótesis ergódica (para argumentar que la probabilidad del macroestado es proporcional al volumen del espacio de fases). La multiplicidad CBC puede entonces racionalizarse como empíricamente equivalente a la multiplicidad sin CBC. Probablemente se podrían esgrimir argumentos similares para legitimar el uso de la CBC en otras circunstancias en las que la CBC podría no estar "fácilmente justificada" a partir de los supuestos físicos fundamentales.
¿Por qué nos importa una entropía extensa?
Creo que la razón es que la termodinámica clásica asume que la entropía es una cantidad extensiva, es decir, que la entropía del sistema total siempre puede calcularse como la suma de las entropías de cada subsistema considerado aisladamente.
Por ejemplo, consideremos el sistema anterior en la configuración de la paradoja de Gibbs, y supongamos que $N_1/V_1\neq N_2/V_2$ . Deseamos encontrar el estado de equilibrio cuando se retira el divisor. Sea $S_\text{sys}$ es la entropía total del sistema, y $S_1$ y $S_2$ son las entropías de los subsistemas de caja izquierdo y derecho (cuando se consideran aisladamente), respectivamente. Supongamos que la entropía es extensiva. \begin{align*} \frac{\partial S_\text{sys}}{\partial N_1} &= \frac{\partial S_1}{\partial N_1} + \frac{\partial S_2}{\partial N_1}\\ &= \frac{\partial S_1}{\partial N_1} - \frac{\partial S_2}{\partial N_2} \\ \end{align*} En equilibrio, $\partial S_\text{sys}/\partial N_1=0$ . \begin{align*} \frac{\partial S_1}{\partial N_1} &= \frac{\partial S_2}{\partial N_2} \\ \mu_1 &= \mu_2 \end{align*}
Si la entropía no es extensiva, esto no será cierto. Sin un recuento de Boltzmann correcto, la multiplicidad total del sistema es (donde utilizamos $\Omega(E, V, N)$ por lo que las derivadas parciales con respecto a $N$ son cuando $E$ y $V$ se mantienen constantes, y no $T$ y $V$ ) \begin{gather*} \Omega_\text{sys} = \Omega(E_1, V_1, N_1)\Omega(E_2, V_2, N_2)\times\frac{(N_1+N_2)!}{N_1!N_2!} \end{gather*} La entropía es entonces, donde $S_i = k_B\ln \Omega(E_i, V_i, N_i)$ , \begin{gather*} S_\text{sys} = S_1 + S_2 - k_BN_1\ln N_1 - k_BN_2\ln N_2 + k_B\ln((N_1+N_2)!) - k_B(N_1+N_2) \end{gather*} Diferenciar con respecto a $N_1$ , manteniendo $N_1+N_2$ constante. \begin{gather*} \frac{\partial S_\text{sys}}{\partial N_1} = \frac{\partial S_1}{\partial N_1} - \frac{\partial S_2}{\partial N_2} - k_B\ln N_1 + k_B\ln N_2 \end{gather*} En equilibrio, $\partial S_\text{sys}/\partial N_1 = 0$ . \begin{gather*} \frac{\partial S_1}{\partial N_1} - k_B\ln N_1 = \frac{\partial S_2}{\partial N_2} - k_B\ln N_2 \\ \mu_1 + k_BT\ln N_1 = \mu_2 + k_BT\ln N_2 \end{gather*} Se trata de una condición de equilibrio diferente (igualmente válida) de la que se encontraba antes.
No creo que sea posible "probar" si las partículas de gas en el mundo real tienen entropías extensivas o intensivas "midiendo sus potenciales químicos", ya que (según tengo entendido) cuando "medimos el potencial químico" de alguna especie química, en realidad sólo estamos ajustando parámetros a un modelo termodinámico que ya asume una entropía extensiva, por lo que utilizar este método para probar que "las entropías de los gases reales son extensivas" podría ser circular y carecer de sentido.
¿Cómo justificar un recuento de Boltzmann correcto para las interacciones químicas entre subsistemas de especies químicas diferentes, o cuando el número de partículas no se conserva?
Esta es una pregunta que me ha venido a la mente y que a otros les puede pasar lo mismo. En última instancia, creo que esta pregunta carece de sentido. (Creo) que los potenciales termodinámicos de los gases reales se determinan mediante experimentos, y "ajuste de parámetros", y no mediante "primeros principios" como hemos hecho para el gas monatómico ideal.
El potencial químico determinado por la ecuación de Sackur-Tetrode podría no ser comparable a los potenciales químicos de gases reales determinados mediante experimentos, ya que estas cantidades son (¿probablemente?) relativas a algún potencial "cero estándar", mientras que no está claro a qué es relativo el potencial químico determinado mediante la ecuación de Sackur-Tetrode.
Además, el teorema de Liouville ya no es aplicable si el número total de partículas (de algunas partículas que evolucionan mediante las ecuaciones de Hamilton) no se conserva, por lo que el recuento correcto de Boltzmann no es menos, ni más, fácil de justificar que el "recuento incorrecto de Boltzmann". Necesitaríamos otra forma de razonar por qué los microestados que hemos elegido deberían ser equiprobables.
Como nota al margen, el objetivo de la mecánica estadística (parece ser) utilizar argumentos probabilísticos para determinar los potenciales termodinámicos de nuevos sistemas, de forma que interactúen "coherentemente" con los potenciales termodinámicos existentes de los sistemas estudiados.
Una observación genial.
Como otra nota al margen, volviendo al ejemplo de la paradoja de Gibbs, cuando calculamos la multiplicidad, sin el recuento correcto de Boltzmann, después de eliminar el divisor, podríamos haberlo hecho de dos maneras, o bien $$ \Omega_\text{sys}' = \Omega(V_1+V_2, N_1 + N_2) \,. $$ como se hizo inicialmente, o $$ \Omega_\text{sys}' = \Omega(V_1+V_2, N_1)\Omega(V_1+V_2, N_2) \,. $$ Se puede demostrar que ambos son equivalentes (de nuevo, no exactamente equivalentes, ya que el segundo cálculo no considera los microestados en los que un pequeño grupo de partículas, digamos una sola partícula, contiene toda la energía del sistema, y las demás se mueven muy lentamente). La primera interpretación dice que, una vez retirado el divisor, el sistema es igual a una caja de volumen $V_1+V_2$ con $N_1+N_2$ partículas. La segunda interpretación dice, que el sistema después de quitar el divisor, es lo mismo que expandir el volumen de las cajas izquierda y derecha, para llenar el tamaño de ambas cajas, y las cajas izquierda y derecha como que "coexisten".
La segunda interpretación es también cómo se calcularía la multiplicidad total del sistema para gases distintos que se mezclan después de retirar el divisor. Sin un recuento de Boltzmann correcto, la multiplicidad de dos gases distintos mezclados es la misma que la de dos gases idénticos mezclados, y la multiplicidad de dos gases idénticos mezclados es la misma que la de dos gases idénticos mezclados. sin mezclar gases distintos, es inferior que la multiplicidad de dos gases idénticos sin mezclar. Esto es opuesto a la cuenta correcta de Boltzmann. En cierto sentido, esto es más intuitivo. Dos gases distintos mezclados son tan "inútiles" como dos gases idénticos mezclados, pero se puede extraer trabajo útil de dos gases distintos sin mezclar, por lo que quizás su entropía "debería" ser menor que la de dos gases idénticos "sin mezclar/mezclados".
Lo siento si esto era demasiado largo, sólo pensé que algunas partes podrían ser interesantes para los demás. Todavía estoy aprendiendo el tema, así que no sé si todo lo dicho es estrictamente correcto, pero estoy abierto a comentarios.
Este documento
Jaynes, E. T. (1996). "La paradoja de Gibbs".
de Jaynes también era bastante interesante. En una parte habla de cómo la entropía sólo se define hasta una función arbitraria del número de partículas $N$ en "termodinámica fenomenológica".