18 votos

Cómo justificar el "recuento correcto de Boltzmann" (dividiendo por $N!$ ) sin recurrir a la mecánica cuántica?

Que una caja de volumen $V$ contienen $N$ partículas gaseosas monatómicas, con energía total $E$ . Al considerar el "volumen" del espacio de fases coherente con nuestras macroobservables ( $E$ , $V$ y $N$ ), la multiplicidad de este macroestado es (de la Ref.1) $$ \Omega = \frac{V^N}{h^{3N}}\frac{2\pi^{3N/2}(2mU)^{(3N-1)/2}}{\Gamma(3N/2)} \,. $$

Sin embargo, esta expresión es "incompleta", ya que conduce a una entropía no extensiva y, por tanto, a la paradoja de Gibbs. La solución consiste en dividir por $N!$ (o "recuento correcto de Boltzmann"), y la justificación suele ser: porque las partículas son fundamentalmente indistinguibles en mecánica cuántica.

No me gusta la justificación mecánica cuántica, y la Ref.2 resume mis sentimientos

Si este razonamiento fuera correcto, entonces la paradoja de Gibbs implicaría que el mundo es mecánico cuántico. Es difícil creer que un experimento mental de la física clásica pudiera producir un resultado tan profundo conocimiento.

Además, acepto intuitivamente que la probabilidad de un macroestado es proporcional al volumen de espacio de fase que abarca. Dividiendo por $N!$ reduciría "injustamente" la probabilidad de los macroestados con mayor número de partículas. Si $E$ , $V$ y $N$ se duplicaran todas, entonces la región conforme del espacio de fases aumentaría drásticamente, más que elevarse al cuadrado (es decir, se duplicaría la entropía).

Por otra parte, si la entropía no es una magnitud extensiva, tampoco lo es el potencial químico $\mu$ y utilizando la multiplicidad "no corregida" anterior, un depósito infinito de partículas a temperatura y presión constantes tendrá un potencial químico no infinito, esto no puede ser correcto. (Relacionado con: ¿Cómo se mide experimentalmente el potencial químico de un gas? )

Según la Ref.2,

división sistemática por $N!$ f estados mutuamente accesibles no tiene consecuencias empíricas.

y continúa diciendo que esto se debe a que dividir por $N!$ en sistemas cerrados no afectan a las probabilidades relativas de los macroestados (como $N$ es constante).

Después de leer la Ref.2 no he entendido nada, así que supongo que estoy buscando un argumento más detallado (o "intuitivo") de por qué el recuento correcto de Boltzmann no tiene consecuencias empíricas.


  1. Schroeder, D. (1999). An Introduction to Thermal Physics. p.71.

  2. Versteegh, M., Dieks, D. (2011). "La paradoja de Gibbs y la distinguibilidad de partículas idénticas".


Esta pregunta es similar a ¿Por qué la función de partición se divide por $(h^{3N} N!)$ ? pero estoy buscando una explicación no mecánica cuántica específicamente.

11voto

eugenhu Puntos 106

Después de pensarlo un poco, esto es lo que creo que podría ser una explicación.


Sea $$ \Omega(V, N) = \frac{V^N}{h^{3N}}\frac{2\pi^{3N/2}(3Nmk_BT)^{(3N-1)/2}}{\Gamma(3N/2)}\Delta p $$ para alguna constante $T$ y donde $\Delta p$ es cierta incertidumbre en el impulso. Esta es la multiplicidad para un gas ideal monatómico a cierta temperatura constante sin recuento correcto de Boltzmann.

Primero argumentaré que la multiplicidad no corregida es realmente válida, y que la paradoja de Gibbs puede evitarse.

Para mayor comodidad, simplificamos la expresión para $\Omega(V, N)$ . \begin{align*} \Omega(V, N) &= \frac{V^N}{h^{3N}}\frac{2\pi^{3N/2}(3Nmk_BT)^{(3N-1)/2}}{\Gamma(3N/2)}\Delta p \\ &= \frac{(3N/2)^{(3N-1)/2}}{\Gamma(3N/2)}\left[\frac{(2\pi mk_B T)^{3/2}}{h^3}V\right]^{N}\sqrt{\frac{2}{mk_BT}}\Delta p \end{align*} Sea \begin{align*} f(N) &= \frac{(3N/2)^{(3N-1)/2}}{\Gamma(3N/2)} \\ \lambda &= \frac{h}{\sqrt{2\pi mk_B T}} \\ \delta &= \sqrt{\frac{2}{mk_BT}}\Delta p \end{align*} entonces \begin{align*} \Omega(V, N) &= f(N)\left(\frac{V}{\lambda^3}\right)^{N}\delta \end{align*}

Según la configuración habitual para la paradoja de Gibbs, considere el sistema siguiente

                ![](https://i.stack.imgur.com/Nl9j3.png)

donde las cajas izquierda y derecha están en equilibrio térmico pero separadas por un divisor, y sus volúmenes y número de partículas se denotan por $V_1, N_1$ y $V_2, N_2$ respectivamente. También limitamos $N_1/V_1=N_2/V_2$ por lo que ambas cajas tienen presiones iguales.

Se dice entonces que la multiplicidad total del sistema es $$ \Omega^{(?)}_\text{sys} = \Omega(V_1, N_1)\Omega(V_2, N_2) \,, $$ pero yo diría que esto es incorrecto.

Supongamos que sólo hay una partícula en cada caja, el sistema se caracterizaría entonces por las coordenadas del espacio de fase $(\vec{q}_1,\vec{p}_1,\vec{q}_2,\vec{p}_2)$ donde $\vec{q}_i$ es la posición de la partícula $i$ y $\vec{p}_i$ es el momento de la partícula $i$ . La cantidad $\Omega^{(?)}_\text{sys}$ correspondería en realidad a la multiplicidad de una distribución del espacio de fases en la que las posiciones se distribuyen así

                             ![](https://i.stack.imgur.com/b86p4.png)

Sin embargo, esto representa sólo un subconjunto de los estados que son consistentes con nuestras macrovariables (que era, una partícula en cada caja). En realidad, la distribución de posiciones debería ser

                             ![](https://i.stack.imgur.com/3jQGF.png)

Dado que las partículas son macroscópicamente idénticas (nuestras macrovariables no distinguen entre ellas), no hay razón para creer que nuestro sistema existe sólo en un subconjunto de los microestados disponibles, como sugiere la fig. 2. Por supuesto, el sistema está definitivamente en uno de los microestados disponibles. Por supuesto, el sistema está definitivamente en una de las regiones cuadradas de la distribución de posiciones, no puede evolucionar entre las dos. Si quisiéramos insista que el sistema está en un cuadrado específico, debemos tener una manera de prescribir esta configuración usando nuestras macrovariables, pero esto es equivalente a requerir que las partículas sean macroscópicamente distinguibles.

Otra razón por la que $\Omega^{(?)}_\text{sys}$ no es la multiplicidad correcta es porque se calculó multiplicando la multiplicidad del subsistema de la caja izquierda, por la del subsistema de la caja derecha. Esto sólo funciona si los microestados del sistema total pueden dividirse en dos "submicroestados" no correlacionados. Si nos fijamos en la fig. 3, los microestados no pueden dividirse en subestados independientes. Si $\vec{q}_1$ es una posición en la casilla izquierda, entonces $\vec{q}_2$ debe ser una posición en la casilla derecha.

La multiplicidad del sistema debería ser realmente (en el caso de una partícula por caja) $$ \Omega_\text{sys} = \Omega(V_1, 1)\Omega(V_2, 1) \times 2 \,, $$ donde multiplicamos por dos para tener en cuenta el volumen correcto del espacio de fase. Para un número general de partículas por caja, es $$ \Omega_\text{sys} = \Omega(V_1, N_1)\Omega(V_2, N_2) \times {N_1+N_2 \choose N_1,N_2}\,, $$ donde en su lugar hemos multiplicado por un coeficiente multinomial. Intuitivamente, estamos diciendo que si $(\vec{q}_i,\vec{p}_i)$ se encuentra en una región del espacio de fases que cumple con nuestra prescripción macroscópica, entonces también lo hará cualquier permutación de los pares posición-momento.

Ahora retiramos el separador entre las cajas y dejamos que las partículas se mezclen. La multiplicidad del sistema es ahora $$ \Omega_\text{sys}' = \Omega(V_1+V_2, N_1 + N_2) \,. $$

Esto resulta ser igual (más o menos) a la multiplicidad antes de quitar el divisor $\Omega_\text{sys}$ En otras palabras, la paradoja de Gibbs se resolvió cuando determinamos correctamente la multiplicidad inicial del sistema.

Ahora demostramos su "igualdad". \begin{align*} \Omega_\text{sys} &= \Omega(V_1, N_1)\Omega(V_2, N_2) \times {N_1+N_2 \choose N_1,N_2} \\ &= f(N_1)f(N_2)\left(\frac{V_1}{\lambda^3}\right)^{N_1}\left(\frac{V_2}{\lambda^3}\right)^{N_2}\frac{(N_1+N_2)!}{N_1!N_2!}\delta^2 \end{align*} Toma el logaritmo, es decir, calcula la entropía. \begin{align*} \ln\Omega_\text{sys} &= \ln f(N_1) + \ln f(N_2) + N_1\ln\left(\frac{V_1}{\lambda^3}\right) +N_2\ln\left(\frac{V_2}{\lambda^3}\right) + \ln\left(\frac{(N_1+N_2)!}{N_1!N_2!}\right) + 2\ln \delta \end{align*} Descarta el término constante. \begin{align*} &\approx \ln f(N_1) + \ln f(N_2) + N_1\ln\left(\frac{V_1}{\lambda^3}\right) +N_2\ln\left(\frac{V_2}{\lambda^3}\right) + \ln\left(\frac{(N_1+N_2)!}{N_1!N_2!}\right) \end{align*} Se puede demostrar que $\ln f(N) \sim 3N/2$ comme $N\to\infty$ . \begin{align*} &\approx \frac{3(N_1+N_2)}{2} + N_1\ln\left(\frac{V_1}{\lambda^3}\right) +N_2\ln\left(\frac{V_2}{\lambda^3}\right) + \ln\left(\frac{(N_1+N_2)!}{N_1!N_2!}\right) \end{align*} Recordemos que $N_1/V_1=N_2/V_2$ . \begin{align*} &= \frac{3(N_1+N_2)}{2} + N_1\ln\left(\frac{V_1/N_1}{\lambda^3}\right) +N_2\ln\left(\frac{V_2/N_2}{\lambda^3}\right) + N_1\ln N_1 + N_2\ln N_2 + \ln\left(\frac{(N_1+N_2)!}{N_1!N_2!}\right) \\ &= \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{V_1/N_1}{\lambda^3}\right) + N_1\ln N_1 + N_2\ln N_2 + \ln\left(\frac{(N_1+N_2)!}{N_1!N_2!}\right) \end{align*} Utiliza la aproximación de Stirling. \begin{align*} &= \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{V_1/N_1}{\lambda^3}\right) + (N_1+N_2)\ln(N_1+N_2) \\ &= \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{(N_1+N_2)V_1/N_1}{\lambda^3}\right) \\ &= \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{V_1+V_2}{\lambda^3}\right) \end{align*} Por lo tanto, para grandes $N_1$ y $N_2$ , $$ \ln\Omega_\text{sys} \approx \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{V_1+V_2}{\lambda^3}\right) \,. $$

Por otro lado, la entropía después de eliminar el divisor es \begin{align*} \ln\Omega_\text{sys}' &= \ln(\Omega(V_1+V_2, N_1+N_2)) \\ &= \ln f(N_1+N_2) + (N_1+N_2)\ln\left(\frac{V_1+V_2}{\lambda^3}\right) + \ln \delta\\ &\approx \frac{3(N_1+N_2)}{2} + (N_1+N_2)\ln\left(\frac{V_1+V_2}{\lambda^3}\right) \\ &= \ln\Omega_\text{sys} \,. \end{align*}

Por lo tanto, tanto $\Omega_\text{sys}$ y $\Omega_\text{sys}'$ conducen a la misma entropía, y no se gana entropía eliminando el divisor.

Como nota al margen, sólo hemos demostrado que $\Omega_\text{sys}$ y $\Omega_\text{sys}'$ son iguales cuando se ignoran los términos de bajo orden. En realidad, tampoco debemos esperar que sean exactamente iguales. Antes de retirar el divisor, cada caja contenía un número definido de partículas, pero después de retirar el divisor, el número de partículas de cada caja será variable.

Así, la paradoja de Gibbs se resuelve sin necesidad de utilizar correctamente el recuento de Boltzmann. Si el enfoque "ingenuo" para calcular la multiplicidad fue correcto todo el tiempo, ¿por qué deberíamos seguir insistiendo en dividir por $N!$ para explicar la indistinguibilidad? ¿Cómo es la división por $N!$ ¿incluso justificado?

El hecho de no utilizar correctamente el recuento de Boltzmann tiene un inconveniente, y es que la entropía deja de ser amplia . Por entropía extensiva, entiendo, aquella en la que se cumple lo siguiente. La entropía de un sistema total, es igual a la suma de las entropías de "cada subsistema considerado aisladamente", independientemente de que algunos subsistemas sean "idénticos". Esto es equivalente a requerir que la multiplicidad del sistema total, sea un producto de las multiplicidades de 'cada subsistema cuando se considera aisladamente'. $$ \Omega_\text{total} = \prod_i \Omega_\text{subsystem $ i $} $$ La multiplicidad que hemos estado utilizando hasta ahora, claramente no satisface esta propiedad, tuvimos que multiplicar por un coeficiente multinomial para obtener la multiplicidad total correcta del sistema; $$ \Omega_\text{total} \neq \Omega_\text{left box}\times\Omega_\text{right box} \,, $$ donde $\Omega_\text{left box}$ es la multiplicidad de la casilla izquierda, cuando ésta se considera aisladamente, y de forma similar para $\Omega_\text{right box}$ .

Existe una conexión natural entre la forma en que hemos estado calculando las multiplicidades hasta ahora y el recuento correcto de Boltzmann. Reordenando la ecuación que relaciona la multiplicidad total del sistema (antes de eliminar el divisor) y las multiplicidades de las casillas izquierda y derecha (consideradas aisladamente), encontramos \begin{gather*} \Omega_\text{sys} = \Omega(V_1, N_1)\Omega(V_2, N_2) \times \frac{(N_1+N_2)!}{N_1!N_2!} \\ \frac{\Omega_\text{sys}}{(N_1+N_2)!} = \frac{\Omega(V_1, N_1)}{N_1!}\frac{\Omega(V_2, N_2)}{N_2!} \end{gather*}

El recuento correcto de Boltzmann absorbe los factoriales en las multiplicidades, por lo que si definimos \begin{align*} \Omega_\text{sys}^{(B)} &\equiv \frac{\Omega_\text{sys}}{(N_1+N_2)!} \\ \Omega^{(B)}(V, N) &\equiv \frac{\Omega(V, N)}{N!} \end{align*} restauramos lo familiar $$ \Omega_\text{sys}^{(B)} = \Omega^{(B)}(V_1, N_1)\Omega^{(B)}(V_2, N_2) $$

Desde $\Omega_\text{sys}^{(B)}$ difiere de $\Omega_\text{sys}$ sólo por un múltiplo constante (número total de partículas $N_1+N_2$ es constante aquí), maximización de la entropía definida como $k_B\ln \Omega_\text{sys}^{(B)}$ y la maximización de la entropía definida como $k_B\ln \Omega_\text{sys}$ predecirán los mismos estados de equilibrio.

Esencialmente, lo que hemos demostrado es que la multiplicidad de un gas ideal monatómico, calculada con o sin recuento correcto de Boltzmann (en adelante, CBC), conduce a una entropía que, cuando se maximiza, predice los mismos estados de equilibrio. Se podría justificar la multiplicidad calculada sin CBC mediante el teorema de Liouville y la hipótesis ergódica (para argumentar que la probabilidad del macroestado es proporcional al volumen del espacio de fases). La multiplicidad CBC puede entonces racionalizarse como empíricamente equivalente a la multiplicidad sin CBC. Probablemente se podrían esgrimir argumentos similares para legitimar el uso de la CBC en otras circunstancias en las que la CBC podría no estar "fácilmente justificada" a partir de los supuestos físicos fundamentales.


¿Por qué nos importa una entropía extensa?

Creo que la razón es que la termodinámica clásica asume que la entropía es una cantidad extensiva, es decir, que la entropía del sistema total siempre puede calcularse como la suma de las entropías de cada subsistema considerado aisladamente.

Por ejemplo, consideremos el sistema anterior en la configuración de la paradoja de Gibbs, y supongamos que $N_1/V_1\neq N_2/V_2$ . Deseamos encontrar el estado de equilibrio cuando se retira el divisor. Sea $S_\text{sys}$ es la entropía total del sistema, y $S_1$ y $S_2$ son las entropías de los subsistemas de caja izquierdo y derecho (cuando se consideran aisladamente), respectivamente. Supongamos que la entropía es extensiva. \begin{align*} \frac{\partial S_\text{sys}}{\partial N_1} &= \frac{\partial S_1}{\partial N_1} + \frac{\partial S_2}{\partial N_1}\\ &= \frac{\partial S_1}{\partial N_1} - \frac{\partial S_2}{\partial N_2} \\ \end{align*} En equilibrio, $\partial S_\text{sys}/\partial N_1=0$ . \begin{align*} \frac{\partial S_1}{\partial N_1} &= \frac{\partial S_2}{\partial N_2} \\ \mu_1 &= \mu_2 \end{align*}

Si la entropía no es extensiva, esto no será cierto. Sin un recuento de Boltzmann correcto, la multiplicidad total del sistema es (donde utilizamos $\Omega(E, V, N)$ por lo que las derivadas parciales con respecto a $N$ son cuando $E$ y $V$ se mantienen constantes, y no $T$ y $V$ ) \begin{gather*} \Omega_\text{sys} = \Omega(E_1, V_1, N_1)\Omega(E_2, V_2, N_2)\times\frac{(N_1+N_2)!}{N_1!N_2!} \end{gather*} La entropía es entonces, donde $S_i = k_B\ln \Omega(E_i, V_i, N_i)$ , \begin{gather*} S_\text{sys} = S_1 + S_2 - k_BN_1\ln N_1 - k_BN_2\ln N_2 + k_B\ln((N_1+N_2)!) - k_B(N_1+N_2) \end{gather*} Diferenciar con respecto a $N_1$ , manteniendo $N_1+N_2$ constante. \begin{gather*} \frac{\partial S_\text{sys}}{\partial N_1} = \frac{\partial S_1}{\partial N_1} - \frac{\partial S_2}{\partial N_2} - k_B\ln N_1 + k_B\ln N_2 \end{gather*} En equilibrio, $\partial S_\text{sys}/\partial N_1 = 0$ . \begin{gather*} \frac{\partial S_1}{\partial N_1} - k_B\ln N_1 = \frac{\partial S_2}{\partial N_2} - k_B\ln N_2 \\ \mu_1 + k_BT\ln N_1 = \mu_2 + k_BT\ln N_2 \end{gather*} Se trata de una condición de equilibrio diferente (igualmente válida) de la que se encontraba antes.

No creo que sea posible "probar" si las partículas de gas en el mundo real tienen entropías extensivas o intensivas "midiendo sus potenciales químicos", ya que (según tengo entendido) cuando "medimos el potencial químico" de alguna especie química, en realidad sólo estamos ajustando parámetros a un modelo termodinámico que ya asume una entropía extensiva, por lo que utilizar este método para probar que "las entropías de los gases reales son extensivas" podría ser circular y carecer de sentido.

¿Cómo justificar un recuento de Boltzmann correcto para las interacciones químicas entre subsistemas de especies químicas diferentes, o cuando el número de partículas no se conserva?

Esta es una pregunta que me ha venido a la mente y que a otros les puede pasar lo mismo. En última instancia, creo que esta pregunta carece de sentido. (Creo) que los potenciales termodinámicos de los gases reales se determinan mediante experimentos, y "ajuste de parámetros", y no mediante "primeros principios" como hemos hecho para el gas monatómico ideal.

El potencial químico determinado por la ecuación de Sackur-Tetrode podría no ser comparable a los potenciales químicos de gases reales determinados mediante experimentos, ya que estas cantidades son (¿probablemente?) relativas a algún potencial "cero estándar", mientras que no está claro a qué es relativo el potencial químico determinado mediante la ecuación de Sackur-Tetrode.

Además, el teorema de Liouville ya no es aplicable si el número total de partículas (de algunas partículas que evolucionan mediante las ecuaciones de Hamilton) no se conserva, por lo que el recuento correcto de Boltzmann no es menos, ni más, fácil de justificar que el "recuento incorrecto de Boltzmann". Necesitaríamos otra forma de razonar por qué los microestados que hemos elegido deberían ser equiprobables.

Como nota al margen, el objetivo de la mecánica estadística (parece ser) utilizar argumentos probabilísticos para determinar los potenciales termodinámicos de nuevos sistemas, de forma que interactúen "coherentemente" con los potenciales termodinámicos existentes de los sistemas estudiados.

Una observación genial.

Como otra nota al margen, volviendo al ejemplo de la paradoja de Gibbs, cuando calculamos la multiplicidad, sin el recuento correcto de Boltzmann, después de eliminar el divisor, podríamos haberlo hecho de dos maneras, o bien $$ \Omega_\text{sys}' = \Omega(V_1+V_2, N_1 + N_2) \,. $$ como se hizo inicialmente, o $$ \Omega_\text{sys}' = \Omega(V_1+V_2, N_1)\Omega(V_1+V_2, N_2) \,. $$ Se puede demostrar que ambos son equivalentes (de nuevo, no exactamente equivalentes, ya que el segundo cálculo no considera los microestados en los que un pequeño grupo de partículas, digamos una sola partícula, contiene toda la energía del sistema, y las demás se mueven muy lentamente). La primera interpretación dice que, una vez retirado el divisor, el sistema es igual a una caja de volumen $V_1+V_2$ con $N_1+N_2$ partículas. La segunda interpretación dice, que el sistema después de quitar el divisor, es lo mismo que expandir el volumen de las cajas izquierda y derecha, para llenar el tamaño de ambas cajas, y las cajas izquierda y derecha como que "coexisten".

La segunda interpretación es también cómo se calcularía la multiplicidad total del sistema para gases distintos que se mezclan después de retirar el divisor. Sin un recuento de Boltzmann correcto, la multiplicidad de dos gases distintos mezclados es la misma que la de dos gases idénticos mezclados, y la multiplicidad de dos gases idénticos mezclados es la misma que la de dos gases idénticos mezclados. sin mezclar gases distintos, es inferior que la multiplicidad de dos gases idénticos sin mezclar. Esto es opuesto a la cuenta correcta de Boltzmann. En cierto sentido, esto es más intuitivo. Dos gases distintos mezclados son tan "inútiles" como dos gases idénticos mezclados, pero se puede extraer trabajo útil de dos gases distintos sin mezclar, por lo que quizás su entropía "debería" ser menor que la de dos gases idénticos "sin mezclar/mezclados".


Lo siento si esto era demasiado largo, sólo pensé que algunas partes podrían ser interesantes para los demás. Todavía estoy aprendiendo el tema, así que no sé si todo lo dicho es estrictamente correcto, pero estoy abierto a comentarios.

Este documento

Jaynes, E. T. (1996). "La paradoja de Gibbs".

de Jaynes también era bastante interesante. En una parte habla de cómo la entropía sólo se define hasta una función arbitraria del número de partículas $N$ en "termodinámica fenomenológica".

8voto

valerio92 Puntos 483

No es necesaria la mecánica cuántica. Puedes encontrar un argumento clásico en Landau-Lifshitz, Física estadística Capítulo III, apartado 31.

Lo que hay que entender es que al integrar sobre el espacio de fases, por ejemplo para calcular la energía libre en el conjunto canónico, no se debe integrar sobre todos los valores de las variables canónicas $p,q$ pero sólo sobre los valores que corresponden a diferentes estados físicos . Landau utiliza la notación $\int'$ para denotar esto; por ejemplo para la energía libre tendrá

$$\beta F = - \ln \int' e^{-\beta \mathcal H(p,q)} dp dq$$

donde $\beta=1/k_B T$ como siempre.

Ahora bien, a menudo resulta más práctico limitarse a integrar toda la fase, es decir, tomar $\int dp dq$ en lugar de que sobre las porciones del espacio de fases correspondientes a diferentes estados, es decir $\int' dp dq$ . Sin embargo, si lo hace, estará contando de más el número de Estados. En el caso de un gas de $N$ átomos, para obtener el recuento correcto, hay que dividir la integral extendida sobre todo el espacio de fases por el número de permutaciones posibles de $N$ átomos, que es $N!$ . Esto se debe a que si cambias la posición de dos átomos idénticos estás no obtener un nuevo estado físico (éste es el punto clave de todo el argumento). En resumen, para un gas de $N$ átomos idénticos tenemos

$$\int ' \dots dp dq = \frac 1 {N!} \int \dots dp dq$$

que es la Ec. 31.7 en mi edición de Landau-Lifshits.

2voto

Themiddaysun Puntos 353

Es una gran pregunta y tanto tú como @valerio habéis dado buenas respuestas. Sólo añadiré que, como se sugiere en el artículo de Jaynes que citas, la paradoja de Gibbs es en realidad una confusión sobre las macrovariables y lo que constituye un "subsistema". La entropía sólo se define con respecto a un conjunto de macrovariables, así que si quieres comparar la entropía total con la entropía de los subsistemas, tienes que usar las mismas macrovariables para los subsistemas que para el sistema completo.

En concreto, si las partículas son indistinguibles, $V_i$ no es una macrovariable. Esto es obviamente cierto con la partición eliminada, ya que no hay manera de saber a partir de macroobservaciones (es decir, interacciones externas) qué partículas están en volumen $i$ . Menos obviamente, también es cierto con la partición en su lugar, ya que "indistinguible" significa que todavía no hay manera de decir a partir de observaciones macro que las partículas están en volumen $i$ . La única macrovariable relacionada con el volumen es el volumen total, $V$ .

Mientras tanto, una forma significativa de dividir el sistema en subsistemas es dividirlo en $k$ grupos de partículas con $\{N_1,...,N_k\}$ partículas en cada grupo, donde $N = \sum N_i$ . (Es útil darse cuenta de que estas partículas no tienen por qué estar agrupadas físicamente, por ejemplo, en un lado u otro de la caja. Se podría, por ejemplo, crear un subsistema contando una de cada tres partículas. Es importante señalar que el subsistema no se identifica con un volumen de espacio, sino con un conjunto de partículas). Entonces, por "entropía extensiva" se entiende que $S(N,V) = \sum S_i(N_i,V)$ . Es decir, en este esquema se debe pensar en la $i$ como el subsistema que ocupa todo el volumen $V$ como indicaste en tu "genial observación". No importa si sucede que todas las partículas de un subsistema se agrupan en un volumen más pequeño como el lado izquierdo o el lado derecho o la esquina superior derecha; tal configuración fortuita es un microestado particular del subsistema, para el cual la entropía no está definida.

(En cuanto a $E$ debemos elegir los subsistemas de forma que todos ellos se encuentren en equilibrio termodinámico mutuo, por lo que $E_i/N_i \approx E/N \,\forall\, i$ . Dicho de otro modo, la macrovariable correcta no es la energía, sino la temperatura).

Ahora la afirmación de que la entropía es extensiva puede escribirse $ S(T,N,V) = \sum S_i(T,N_i,V) $ o $\Omega(T,N,V) = \prod \Omega_i(T,N_i,V)$ . Esto es trivialmente cierto para un gas ideal de partículas idénticas, independientemente de cómo se cuenten los estados.

¿Cómo cambia esto si las partículas son distinguibles? Bueno, "distinguibles" significa que hay alguna macrovariable cuyo valor depende de los estados de los distintos tipos. Si en la caja hay una mezcla de átomos de xenón y neón, existe la posibilidad de introducir nuevas macrovariables SI el montaje incluye algún mecanismo que reaccione de forma diferente al xenón y al neón, por ejemplo, un tabique que sea permeable al neón pero no al xenón. Al insertar la partición, la fracción relativa de xenón a la izquierda y a la derecha están ahora disponibles como macrovariables, ya que una diferencia en la concentración de xenón a través de la partición producirá una fuerza en la partición. Además, podrías usar la fuerza para hacer trabajo en el exterior o ejercer trabajo en el sistema a través del desplazamiento de la partición, indicando que las diferencias de estado que implican cambios en las nuevas macrovariables están de hecho asociadas con cambios de entropía. Podrías cuantificar las nuevas macrovariables como $N_{xl}/V_l$ y $N_{xr}/V_r$ o equivalentemente, $N_{xl}$ , $V_l$ y $N_x$ (además de $V$ que sigue siendo una macrovariable). Así que en términos de estas macrovariables, $S = S(T,N,V,N_x,N_{xl},V_{xl})$ para todo el sistema Y para los subsistemas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X