10 votos

Comprendiendo el teorema $H$ de Gibbs: ¿de dónde proviene el argumento de "difuminación" de Jaynes?

Según este artículo de Wikipedia, el teorema $H$ fue el intento de Boltzmann de demostrar el aumento irreversible de la entropía en un sistema cerrado a partir de la mecánica microscópica reversible. Sin embargo, aparentemente se han hecho una serie de objeciones a su enfoque original (ver la sección "Críticas del teorema $H$"), por lo que probablemente todavía haya controversia hoy en día. El artículo también describe el intento de Gibbs de lograr el mismo objetivo (ver la sección "Teorema $H$ de Gibbs"). En este punto, la discusión se centra en una versión moderna del teorema, que incluye un argumento bastante extraño de "difuminación", que no estoy seguro de entender correctamente (y que no parece ser totalmente concluyente, al menos según lo que se puede leer en este artículo). Cito (y asumo que esta representación del argumento no es muy rigurosa):

El punto crítico del teorema es: Si la estructura fina en el ensemble agitado está ligeramente difuminada, por cualquier motivo, entonces la entropía de Gibbs aumenta, y el ensemble se convierte en un ensemble de equilibrio. En cuanto a por qué esta difuminación debería ocurrir en la realidad, hay una variedad de mecanismos sugeridos. Por ejemplo, un mecanismo sugerido es que el espacio de fases está granulado por alguna razón (análogo a la pixelización en la simulación del espacio de fases mostrada en la figura). [...] Edwin Thompson Jaynes argumentó que la difuminación es de naturaleza subjetiva, simplemente correspondiente a una pérdida de conocimiento sobre el estado del sistema. En cualquier caso, sin embargo de cómo ocurra, el aumento de entropía de Gibbs es irreversible siempre que la difuminación no se pueda revertir.

Mi principal preocupación es: ¿esta difuminación/pérdida de conocimiento proviene de alguna ley/principio físico bien conocido? Por ejemplo, ¿deberíamos relacionar la cuantización del espacio de fases con $\Delta x \Delta p \geq \frac{\hbar}{2}$, o con algún tipo de efecto del observador? No creo que esta sea la razón, ya que este principio solo debería aplicarse en el contexto de la mecánica cuántica, pero no conozco ningún mecanismo (semi-)clásico similar que se deba considerar.

En general, ¿es necesario la mecánica cuántica (como sugiere esta respuesta a una pregunta relacionada) para explicar completamente cómo surgen las dinámicas irreversible observadas en la naturaleza a escala macroscópica a partir de leyes reversibles?

3voto

Mi principal preocupación es: ¿este difuminado/pérdida de conocimiento proviene de alguna ley/principio físico bien conocido? Por ejemplo, ¿debemos vincular la cuantización del espacio de fases a ΔxΔp≥ℏ2ΔxΔp≥ℏ2, o a algún tipo de efecto observador?

La descripción en el artículo de Wikipedia está desinformada y desorientadora. El difuminado, o granulado, es meramente un mecanismo formal posible para que disminuya $H$ con el tiempo en el teorema $H$ (bolzmanniano).

Este procedimiento introduce una escala artificial por debajo de la cual se descartan detalles y, por lo tanto, tiene poco que ver con la mecánica donde nada se descarta o la segunda ley de la termodinámica, donde no nos preocupamos por tales detalles en absoluto (solo usamos variables macroscópicas).

También $H$ (una función de probabilidades y, por lo tanto, del tiempo) no está relacionado de ninguna manera simple con la entropía termodinámica (función de variables de estado macroscópicas).

De hecho, no es necesario difuminar la función de probabilidad para explicar la segunda ley. Jaynes ha mostrado cómo se puede derivar la formulación de entropía de la segunda ley para un sistema térmicamente aislado sin ningún difuminado, simplemente utilizando la mecánica hamiltoniana, el principio de máxima entropía de la información y la suposición de que los resultados de experimentos macroscópicos son repetibles.

Dejemos que el sistema evolucione del estado de equilibrio termodinámico $A$ al estado de equilibrio termodinámico $B$. Describiremos todo el proceso también mediante la densidad de probabilidad $\rho(t)$, comenzando en el tiempo $t_A$ con la función inicial $\rho(t_A)$ y terminando en el tiempo $t_B$. La densidad inicial $\rho(t_A)$ puede ser cualquier cosa siempre que respete las restricciones del macroestado $A$. Las densidades subsiguientes $\rho(t)$ para $t \geq t_A$, sin embargo, están completamente determinadas por el hamiltoniano y la condición inicial; no somos libres de elegirlas.

Debido al teorema de Liouville, la entropía de la información (a menudo llamada entropía de Gibbs)

$$ I[\rho] = \int -\rho\ln\rho \,dqdp $$

permanece constante en el tiempo, no hay ningún tipo de difuminado de $\rho$ de ningún tipo. (1)

Se demostrará que la entropía termodinámica en el estado de equilibrio final $S_B$ es mayor o igual a la entropía termodinámica inicial $S_A$.

Este resultado es posible porque la entropía termodinámica de un macroestado, en general, no es simplemente proporcional a la entropía de la información de la distribución de probabilidad dependiente del tiempo $\rho(t)$. Su relación con el concepto de entropía de la información es esta:

El valor de la entropía termodinámica del macroestado $X$ se da por el valor de la entropía de la información para esa distribución de probabilidad $\rho_X$, que es tanto consistente con el macroestado $X$ y da el máximo valor posible a la entropía de la información. (2)

Ahora, obviamente $\rho(t_B)$ es consistente con el macroestado $B$ pero $I[\rho(t_B)]$ no es necesariamente el valor máximo posible de $I$ para todas las $\rho$'s compatibles con el macroestado $B.

La densidad de probabilidad que no solo es consistente con el macroestado $B$ pero también maximiza la entropía de la información es, en general, diferente de $\rho(t_B)$. Denotemos esta densidad maximizadora como $\rho_B$; entonces la relación de las dos entropías de información es

$$ I[\rho_B] \geq I[\rho(t_B)]. $$

Ahora, basándonos en (2), podemos escribir esto como $$ S_B \geq I[\rho(t_B)], $$ es decir, la entropía termodinámica en el estado de equilibrio final es mayor o igual a la entropía de la información de la distribución de probabilidad evolucionada.

Basándonos en (1), también podemos escribir esto como $$ S_B \geq I[\rho(t_A)]. $$

Esto significa que cualquiera que sea la densidad $\rho(t_A)$ elegida para describir el macroestado $A$, la entropía termodinámica del estado final $B$ es igual o mayor que la entropía de la información de $\rho(t_A)$. Y así, si la densidad $\rho_A$ se elige de manera que maximiza $I$ bajo las restricciones del macroestado inicial $A$, $I$ alcanza el valor de la entropía termodinámica $S_A$ y obtenemos la desigualdad

$$ S_B \geq S_A. $$

Esto significa que hemos derivado la formulación de la entropía de la segunda ley de la termodinámica a partir del principio de máxima entropía de la información, utilizando la constancia de la entropía de Gibbs como uno de los ingredientes.

Más generalmente, ¿es necesaria la mecánica cuántica (como se sugiere en esta respuesta a una pregunta relacionada) para explicar completamente cómo emergen las dinámicas irreversibles observadas en la naturaleza a escala macroscópica a partir de leyes reversibles?

Si quisiéramos explicar completamente el proceso hasta las partículas elementales, se necesitaría una teoría de estas partículas como la teoría cuántica. Pero si el objetivo es simplemente demostrar que la evolución irreversible de las variables macroscópicas es consistente con la evolución reversible de las variables microscópicas, entonces la respuesta es no.

0 votos

Según entiendo, el principio de máxima entropía de la información es un punto de partida útil para hacer predicciones sobre un sistema del cual se sabe muy poco (que luego se puede comparar con experimentos para refinar iterativamente el modelo). Confiar demasiado en perspectivas de incertidumbre máxima dificulta apreciar la importancia de la dinámica en la mecánica estadística, y el fracaso de algunos sistemas con un gran número de cantidades conservadas (por ejemplo, solitones) para equilibrar a la distribución asociada con el ensamble canónico. Me interesaría escuchar tus pensamientos.

0 votos

Por supuesto, no hay garantía de que el principio de máxima entropía siempre funcione bien. Pero desde el enfoque que expliqué anteriormente, la distribución de probabilidad no evoluciona (se equilibra) a la canónica, está gobernada por las ecuaciones de movimiento. La distribución canónica es simplemente la mejor para usar cuando todo lo que sabemos son las restricciones macroscópicas.

0 votos

Una respuesta interesante que resolvió algunas de mis confusiones, ¡gracias! Solo para aclarar, ¿es entonces la $H$ de Boltzmann lo mismo que la entropía de la información?

1voto

jay Puntos 1

El principio físico que se invoca es la resolución finita de cualquier experimento, independientemente del valor de $\hbar$, junto con el acoplamiento entre grados de libertad observables y microscópicos, es decir, se aplica tanto a sistemas clásicos como cuánticos. Técnicamente, la conservación de la energía y el teorema de Liouville, o la unitariedad en Mecánica Cuántica, también son necesarios para evitar que trayectorias distintas colapsen en algún tipo de atractor. Clásicamente, el resultado se sigue de la sensibilidad a las condiciones iniciales y el hecho de que la mayoría de los sistemas tienen un número relativamente pequeño de cantidades globalmente conservadas (para una excepción importante, ver el problema de Fermi-Pasta-Ulam). El límite de $\Delta x\Delta p\geq \hbar/2$ es solo natural debido a nuestro conocimiento empírico adicional de que la resolución de cualquier descripción clásica se descompone a esta escala. Si usáramos una regla ordinaria para medir la posición, un péndulo para medir el tiempo, y la diferencia de equilibrio de un resorte fijo para medir fuerzas, entonces nuestra resolución y poder predictivo estarían limitados por la precisión de la regla y el péndulo. En la mecánica cuántica, la resolución finita de cualquier experimento implica que cualquier medición inicial ignora grados de libertad asociados con escalas pequeñas. Estos grados de libertad generalmente no tienen un efecto significativo en las trayectorias a corto plazo, pero acumulativamente llevan a una pérdida aparente de unitariedad a lo largo del tiempo. En la resonancia magnética nuclear, se puede predecir con razonable precisión el estado de un solo espín poco después de que se aplique un pulso, pero con el tiempo, las interacciones de muchos cuerpos con partículas ambientales llevan a una propagación gradual de coherencia a escalas de longitud cada vez mayores, y eventualmente a una disipación completa.

Tanto en dinámica clásica como cuántica, el aumento de la entropía puede considerarse como proveniente de datos iniciales incompletos: a medida que la información faltante se vuelve experimentalmente accesible, conduce a un término de error, o entropía de Shannon/von Neumann no nula asociada con la parte observable del sistema.

0 votos

Aunque hay algo que todavía me preocupa un poco: la diferencia entre la entropía termodinámica y la información. ¿Cómo puede un efecto subjetivo, dependiente del observador, dar origen a algo tan "objetivo" como la entropía termodinámica? ¿Me estoy perdiendo algo?

2 votos

La entropía termodinámica es, en cierta medida, dependiente del observador. El paradigma de Gibbs se explica generalmente con respecto a partículas idénticas o indistinguibles, pero también se aplica a partículas distinguibles que quedan no diferenciadas (un término muy apropiado que vi por primera vez en el libro de mecánica estadística de James Sethna) ya sea porque el experimento no puede distinguir las partículas, o porque incluso si existieran diferencias visibles entre las partículas, sería casi imposible utilizar las diferencias de presión osmótica para extraer trabajo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X