25 votos

¿Por qué la entropía máxima implica equilibrio?

Desde un punto de vista puramente termodinámico, ¿por qué esa entropía tiene que ser un máximo en equilibrio? Digamos que hay equilibrio, es decir, no hay flujo de calor neto, ¿por qué la entropía no puede estar sentada en un valor no máximo?

De la segunda ley de la termodinámica, se deduce que SS nunca se hace más pequeño y por supuesto sé que para un sistema aislado hay muchas declaraciones que involucran dS=δQTdS=δQT que dicen lo que podría pasar para los procesos. Pero si tengo equilibrio, entonces no hay procesos relevantes en marcha. Algunas pruebas en termodinámica implican argumentos de cómo si no tenemos entropía máxima, entonces podemos hacer algo que aumente la entropía. ¿Pero por qué es ese equilibrio relevante o relacionado, es decir, con las posiciones de los parámetros termodinámicos, que no cambian con el tiempo? Se podría argumentar que probablemente la energía UU no se sitúa en el valor mínimo, pero en la termodinámica, sin fuerzas microscópicas, la afirmación de que la energía cambia hacia el equilibrio y busca su valor mínimo parece derivar de la entropía máxima.

¿Y cómo puedo concluir la conversación? ¿Por qué el equilibrio se deriva de dS=0dS=0 ?

(edición: veo que la pregunta acaba de salir en la primera página, y como ya tiene un año, supongo que mi interés en el tema ha cambiado en la medida en que ya no estoy particularmente contento con la formulación de la pregunta inicial. Es decir, supongo que sin una adecuada formulación de las definiciones, podría ser difícil dar una buena respuesta - lo que todavía no me "gusta", y eso podría ser una especie de problema de lenguaje, es que "maximizar" implica que hay una familia de valores que podría tomar - pero toma el máximo - mientras que al mismo tiempo, a menudo se considera que una desviación de un estado termodinámico es una transición hacia una configuración donde la termodinámica ya no se aplica. Por lo tanto, si te alejas del "valor máximo", puedes perder el concepto de que hay una temperatura en absoluto, pero como esto es lo que hace que el espacio del parámetro con respecto a lo que usas la palabra entropía "máxima", te metes en problemas de lenguaje. Pero al menos veo su utilidad para explicar cómo la entropía/energía evoluciona una vez que tomas los extensos parámetros bajo tu control y cambias el sistema cuasi-estáticamente. En cualquier caso, estoy y sólo estoy interesado en una respuesta mecánica no estadística aquí. Claramente, puedo darle sentido a la física usando la imagen microscópica de todos modos, pero estaba puramente interesado en la formulación de la teoría termodinámica aquí).

0 votos

A veces "la entropía es máxima en el equilibrio" se pone simplemente en la formulación de la segunda ley. Entonces, ¿cuál es la formulación exacta de la segunda ley que estás utilizando?

0 votos

Las formulaciones de Clausius o Kelvin que aparecen al principio de la página de la wikipedia serían suficientes. Las formulaciones matemáticas que implican SS también son buenas. Es sólo que no veo cómo una afirmación que implica el equilibrio, que es un concepto que implica el tiempo y la evolución del tiempo, se puede caracterizar en la termodinámica clásica en términos o dSdS y así sucesivamente.

0 votos

@Nick Kidman La estática comparativa tiene un concepto de equilibrio pero no una teoría dinámica. Esto me recuerda la famosa crítica de Joan Robinson al uso de la estática comparativa por parte de la teoría económica neoclásica.

-1voto

eddiegroves Puntos 118

La termodinámica es una ciencia que se ocupa de sistemas extremadamente complicados que pueden ser analizados con sólo unas pocas variables. Por ejemplo, el gas en una botella presurizada consiste en algo como 10231023 átomos, cada uno con una posición (3 variables) y una velocidad / momento (3 variables más). Son muchas variables, pero la termodinámica nos da una forma de analizar el sistema (usaré la formulación de la energía) con sólo el volumen, la energía total y el número de átomos. De esto obtenemos los valores extensos de presión, temperatura y potencial químico (este último no es necesario para la cantidad fija de gas en una botella), y otras cosas como la capacidad de calor, etc.

Al hacer un análisis de estos sistemas, encontramos que hay otra variable que es muy útil conocer, la "entropía". Desde un punto de vista microscópico, la entropía es el logaritmo del número de estados que son posibles para el sistema. Por "número de estados" nos referimos al número de posiciones y momentos posibles para aquellos 10231023 átomos.

La razón por la que la entropía es algo útil es que nos dice lo "fácil" que es configurar los átomos en una situación particular. Si sólo hay una manera de hacerlo (por ejemplo, todos los átomos sentados uno al lado del otro en un sólido cristalino en el fondo de la botella), entonces será muy difícil de lograr. Por otra parte, si hay "miles de millones y billones" (no importa exactamente cuántos) de formas de ensamblar esa situación (en lo que respecta a la energía total, el volumen y el número de átomos), entonces esa situación será fácil de lograr.

A veces se puede obtener un sistema en el que la entropía es muy pequeña, en comparación con su valor máximo. Un ejemplo es una botella con todo el gas (ideal) en un lado del contenedor. Esa situación no está en equilibrio porque hay tantas maneras en que podría reorganizarse que está condenada a cambiar a una situación de mayor entropía. Por lo tanto S debe ser maximizado.


Ahora déjame dar un ejemplo de una situación en la que los números son extremadamente pequeños pero aún así tendrás una idea de cómo funcionan las matemáticas.

Supongamos que tenemos un puñado de dados de 6 caras, digamos NN dados. Una situación dada es que cada dado muestra un número en {1,2,3,4,5,6}. Una variable termodinámica para el puñado es "el total de todos los números que aparecen en los dados". Suponemos que los dados tienen una interacción que hace que cambien su orientación al azar (y por lo tanto sus números). Para NN dados, el promedio (o valor de expectativa) para esta variable termodinámica es NN veces el número promedio de un dado que resulta ser 7/2. Por lo tanto, en promedio, los dados se sumarán a 7N/27N/2 .

Supongamos que los dados se encuentran en una situación en la que sus números se suman a NN (o 6N6N ). Tal situación sólo tiene una forma de lograrse - todos los dados tienen que mostrar el mismo número, es decir, "1" (o "6"). Tal situación tiene una entropía de log(1) ya que sólo hay una forma de lograrlo, y la entropía es ln(1)=0ln(1)=0 . Esto tiene una entropía antinaturalmente baja y no es una situación de equilibrio.

Por otro lado, hay muchas maneras de conseguir que los dados se sumen a 7N/27N/2 (¡al menos suponiendo que tengas un número par de dados!) Por lo tanto, esta situación es una con alta entropía. Por lo tanto, un puñado de dados que se sacuden, tiende a acercarse al equilibrio termodinámico exhibiendo un valor total que es igual a la suma de sus posibles valores medios.

0 votos

Gracias por la respuesta. La cuestión es que estoy buscando una explicación "desde un punto de vista puramente termodinámico". Una derivación sistemática a partir de las leyes de la termodinámica sería suficiente, aunque supongo que también habrá que dar una definición clara de equilibrismo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X