10 votos

¿Cuál es la diferencia entre la entropía y el (des)orden de un sistema?

La entropía es a menudo verbalmente descrito como el orden/desorden de la termodinámica del sistema. Sin embargo, me han dicho que esta descripción es un vago "mano saludando" intento de describir lo que la entropía es. Por ejemplo, una habitación desordenada no tiene mayor entropía de una habitación ordenada

Mi pregunta es ¿por qué es este el caso? Además, ¿qué sería mejor describir la entropía verbalmente?

10voto

Akash Ramani Puntos 178

Brevemente, los procesos espontáneos tienden a proceder de los estados de baja probabilidad de los estados de mayor probabilidad. La mayor probabilidad de que los estados tienden a ser aquellos que se pueden realizar de muchas maneras diferentes.

La entropía es una medida del número de diferentes formas en que un estado con una energía particular que puede ser realizado. Específicamente, $$S=k\ln W$$ where $k$ is Boltzmann's constant and $P$ es el número de formas equivalentes para distribuir energía en el sistema. Si hay muchas maneras de darse cuenta de un estado con una energía dada, decimos que tiene una alta entropía. A menudo, muchos de maneras de darse cuenta de un estado de alta entropía puede ser descrito como "trastorno", pero la falta de orden es irrelevante; el estado tiene una alta entropía debido a que puede ser realizado de muchas maneras diferentes, no porque es "desordenado".

He aquí una analogía: si la energía fuera de dinero, de la entropía podría estar relacionado con el número de diferentes maneras de contar. Por ejemplo, hay sólo dos maneras de contar los dos dólares con el Americano el dinero de papel (2 1-billetes de dólar o 1 billete de dos dólares). Pero hay cinco maneras de contar los dos dólares con 50 centavos o 25 céntimos (4 de 50 céntimos, 3 de 50 céntimos y 2 cuartos, y así sucesivamente). Se podría decir que la "entropía" de un sistema que reparte en las monedas era mayor que la de un sistema que sólo trataba de dinero de papel.

Vamos a ver el cambio en la entropía de una reacción $\rm A\rightarrow B$, donde las moléculas pueden tomar energías que son múltiplos de 10 unidades de energía, y las moléculas de B puede tomar energías que son múltiplos de 5 unidades.

Supongamos que la energía total de reacción de la mezcla es de 20 unidades. Si tenemos 3 moléculas de Una, hay 2 maneras de distribuir nuestros más de 20 unidades entre los niveles de energía con 0, 10, y 20 unidades:

There are 2 ways to distribute 3 A molecules with a total energy of 20 units.

Si tenemos 3 moléculas de B, hay 4 maneras de distribuir 20 unidades entre los niveles de energía con 0, 5, 10, 15, y 20 unidades:

enter image description here

La entropía de B es mayor que la entropía de Un porque hay más formas de distribuir la misma cantidad de energía en B que en A. por lo Tanto, $\Delta S$ para la reacción de $\rm A\rightarrow B$ será positivo.

4voto

Freddy Puntos 2991

¿qué sería mejor describir la entropía verbalmente?

También podemos usar la "medida de la aleatoriedad" o "cantidad de caos" o "dispersión de la energía"


Inicialmente, en 1862, Rudolf Clausius afirmó que el proceso termodinámico siempre "admite ser reducido a la alteración de alguna u otra forma de disposición de las partes que constituyen el cuerpo de trabajo" y que el trabajo interno asociado con estas modificaciones se cuantifica enérgicamente por una medida de entropía de cambio.

Pero más tarde, después de unos años Ludwig Boltzmann palabra traducida alteración de Rudolf Clausius afirmación de que el orden y el desorden en la fase de gas sistemas moleculares.

Pero si ves últimos libros que utilizan el concepto de dispersión de la energía en lugar de la orden o desorden para explicar la entropía.


Fuente: Wikipedia

También han vistazo a la física S.E.

2voto

alif Puntos 559

Me voy a tomar un crack en esto, aunque he de reconocer que en este tema, a veces me confunde así. Aquí es cómo me gusta pensar acerca de la entropía. Considere la posibilidad de una caja que contiene cantidades iguales de gases a y B. por Lo tanto, tenemos un volumen fijo y fijo el número de moléculas. También vamos a aislar la caja de su entorno, de manera que se tiene un fijo de energía. Hemos creado un microcanonical conjunto constante (NVE). El conjunto consta de todas las configuraciones posibles de las moléculas que tienen la misma NVE. Ahora, si hemos sido capaces de dar un paso atrás y tener una visión amplia del conjunto, se observa que la gran mayoría de cajas contienen una bastante suave mezcla homogénea de gases a y B. De hecho, serían indistinguibles para todos los propósitos prácticos. Que nos permiten contar el número de cuadros en este estado y llamar al número $W_{1}$. Contuining con el cuadro de contar, nos encontramos con que hay sólo un puñado de distinguir los cuadros de la izquierda, pero son bastante interesantes! Un cuadro, por ejemplo, podría tener todas las moléculas de todos amontonados en una esquina y todas las moléculas de B en la otra esquina! Este cuadro puede ser etiquetada $W_{2}$. Empezamos a entender que algunas configuraciones de moléculas será sumamente improbable, porque representan una pequeña fracción del número total de posibles configuraciones. Boltzmann cuantificado esta relación como $S=k log W$. Si sustituimos $W_{1}$ en esta ecuación obtenemos un valor alto para la entropía, $S$, debido a $W_{1}$ es tan grande. Por otro lado, si sustituimos en $W_2$ la entropía que tenemos es muy baja.

Así que, para resumir, la entropía es realmente la medida de la probabilidad de una determinada configuración del sistema es cuando se compara con todas las configuraciones posibles. En este sentido, yo diría que se podría decir un desorden de la habitación tiene una mayor entropía de una habitación limpia, porque hay muchas más maneras que una habitación puede ser considerado como "desordenado" que "limpia".

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X