45 votos

¿Por qué la entropía del gas no es infinita si hay infinitos microestados disponibles?

¿Cómo puede ser que la entropía del gas no sea infinita? Si utilizamos la fórmula $S=k\ln(\Omega)$ obtenemos el infinito porque hay un número infinito de situaciones posibles (porque hay infinitas posibilidades de posición y momento para cada molécula).

52voto

El problema en el que está pensando se conoce como la cuestión de granos gruesos termodinámicos . Esto le dará, con suerte, una frase que podrá buscar para obtener más información.

A veces, los estados posibles de los miembros del conjunto son obviamente discretos, como ocurre en una colección de osciladores armónicos cuánticos. Gran parte de la mecánica cuántica depende de que el espacio de estados de Hilbert subyacente sea separable ( es decir tiene un subconjunto denso contable) y para los espacios de Hilbert esto equivale a la afirmación de que la propia base vectorial es contable. Así, aunque un observable como el momento o la posición tenga un espectro continuo ( es decir puede dar una variable aleatoria continua como medida), el espacio de estado subyacente suele ser discreto. En el ejemplo particular de la OP, se puede modelar el gas como un sistema de partículas en una caja 3D (consejo al usuario knzhou por recordarme este punto), de modo que el espacio de estados de los miembros del conjunto es claramente discreto. A medida que aumentamos el volumen de nuestra caja, la densidad de estados (que se discute más en La respuesta de Chris ) aumenta en proporción con el volumen espacial de la caja y, por tanto, también lo hace la entropía. En el límite de un volumen de gas muy grande, la entropía por unidad de volumen es un límite bien definido y finito.

En los casos en los que el espacio de estados no es obviamente discreto, hay que recurrir al uso de la granulación gruesa o a la entropía relativa.

La granulación gruesa es la partición algo arbitraria del espacio de estados de los miembros del conjunto en subconjuntos discretos, considerándose entonces que los estados que pertenecen a una partición determinada son los mismos. Así, un espacio de estados continuo se agrupa en una aproximación discreta. Muchas conclusiones de la mecánica estadística son insensibles a este tipo de agrupación.

Entropía relativa En el sentido de la teoría de la información, se define para una variable aleatoria continua como un cambio aproximado de la entropía en relación con alguna variable aleatoria continua "estándar", como una gobernada por una distribución gaussiana. Vemos el problema que se plantea si intentamos ingenuamente calcular la entropía de Shannon de una variable aleatoria continua con distribución de probabilidad $p(x)$ como límite de una suma discreta:

$$S \approx -\sum\limits_i p(x_i)\,\Delta x \,\log(p(x_i)\,\Delta x) = -\log(\Delta x)\,\sum\limits_i p(x_i)\,\Delta x - \sum\limits_i p(x_i)\,\Delta x \,\log(p(x_i))\tag{1}$$

Las dos sumas de la expresión de la derecha convergen bien, pero el factor $\log(\Delta x)$ que, por supuesto, es divergente. Sin embargo, si tomamos la diferencia entre la entropía de nuestro $p(x)$ y la de una distribución "estándar", nuestro cálculo da:

$$\Delta S \approx -\log(\Delta x)\,\left(\sum\limits_i p(x_i)\,\Delta x-\sum\limits_i q(x_i)\,\Delta x\right) - \sum\limits_i \left(p(x_i)\,\log(p(x_i))-q(x_i)\,\log(q(x_i))\right)\,\Delta x\tag{2} $$

una cantidad que sí converge a $\int\left(p\log p - q\,\log q\right)\mathrm{d}x$ . La entropía relativa habitual no es exactamente igual a esta definición (ver artículos - la definición se modifica para que la medida sea independiente de la reparametrización), pero ésta es la idea básica. A menudo las constantes en el límite de (2) se eliminan y se ve la cantidad $-\int\,p\,\log p\,\mathrm{d}x$ definida como la entropía no cualificada (relativa) de la distribución $p(x)$ .

La granulación gruesa, en este cálculo, sería simplemente elegir una constante $\Delta x$ en (1). (1) es entonces aproximadamente la entropía relativa $-\int \,p\,\log p\,\mathrm{d}x$ compensado por la constante $-\log(\Delta x)$ . Por lo tanto, siempre y cuando:

  1. Nos quedamos con una constante $\Delta x$ en una determinada discusión;
  2. $\Delta x$ es lo suficientemente pequeño en relación con las variaciones de la densidad de probabilidad para que $\sum\limits_i p(x_i)\,\Delta x \,\log(p(x_i))\approx \int p\,\log p\,\mathrm{d} p$ ;
  3. Nuestros cálculos y predicciones físicas sólo tienen que ver con diferencias entre entropías (como ocurre en la mayoría de los casos)

entonces los enfoques de grano grueso y entropías relativas dan predicciones físicas idénticas, independientemente de la $\Delta x$ elegido.

Una buena revisión de estas ideas, con discusión histórica, se encuentra en:

Katinka Ridderbos, "The coarse-graining approach to statistical mechanics: how blissful is our ignorance?", Estudios de Historia y Filosofía de la Física Moderna , 33 , pp65-77, 2002

16voto

Stefan Puntos 11

En un sistema continuo, $w$ se toma como una integral sobre los posibles microestados del sistema. Esto se suele denominar densidad de estados y es bastante finito. Concretamente es algo así como $$w(E)=\mathcal N\int d^{3N}x~d^{3N}p~\delta(E-\epsilon(\vec p,\vec x))$$

donde $\epsilon(\vec p,\vec x)$ es la energía del sistema en función de todos los momentos y posiciones, $\delta$ es una función delta que fija la energía del sistema y $\mathcal N$ es alguna normalización.

Esto deja algo de ambigüedad (concretamente, en la normalización), pero la proporción de $w$ entre dos estados está bien definida, por lo que $\Delta S=k\ln(\frac{w_f}{w_i})$ está bien definida, y la ambigüedad se resuelve definiendo que la entropía es cero en el cero absoluto, lo que da la normalización a utilizar.

8voto

toddward Puntos 11

Te aconsejo que eches un vistazo a cualquier libro de texto de Mecánica Estadística. Este punto suele tratarse en los primeros capítulos. Quieres calcular la entropía microcanónica $$S(E)=k_B\ln\Omega(E)$$ donde $\Omega(E)$ cuenta el número de microestados con energía $E$ . Como has señalado, este número es infinito si las coordenadas son continuas. El enfoque estándar consiste en discretizar el espacio de fases y dividirlo en celdas. Se supone que cada celda corresponde a un único microestado. Para $N$ partículas en un espacio 3D, la dimensión del espacio de fase es $6N$ . La anchura de una celda se elige para que sea $\Delta q$ en el $3N$ direcciones asociadas a las coordenadas y $\Delta p$ en el $3N$ direcciones asociadas a los momentos. Se supone entonces que $$\Delta q\Delta p=h_0$$ Ahora el número de estados $\Omega(E)$ con energía $E$ es finito y se puede calcular la entropía microcanónica. Se trata de un caso especial de la formación gruesa mencionada en las respuestas anteriores.

La ventaja de este enfoque es que se puede estimar fácilmente $\Omega(E)$ el número de células de energía $E$ como el volumen $Vol$ del espacio de fase correspondiente a una energía $E$ dividido por el volumen $h_0^{3N}$ de una célula (aquí simplifico un poco: lo que debería calcularse primero es en realidad el volumen del espacio de fase correspondiente a una energía inferior a $E$ ). Esta estimación sólo es exacta si $h_0$ se elige lo suficientemente pequeño. Veamos qué ocurre con la entropía: ya que $\Omega(E)=Vol/h_0^{3N}$ La entropía se lee $$S(E)=k_B\ln Vol-3Nk_B\ln h_0$$ El parámetro $h_0$ aparece sólo como una constante aditiva. Como los promedios termodinámicos vienen dados por las derivadas de la entropía, no dependen de $h_0$ (con suerte, ya que la discretización del espacio de fase no es física) y se puede dar cualquier valor a $h_0$ siempre que sea lo suficientemente pequeño. Por lo general, no se da un valor definitivo a $h_0$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X