46 votos

¿Qué es realmente la entropía?

En este sitio , cambio en entropía se define como la cantidad de energía dispersada dividida por la temperatura absoluta. Pero quiero saber: ¿Cuál es la definición de entropía? Aquí La entropía se define como la capacidad calorífica media promediada sobre la temperatura específica. Pero no pude entender esa definición de entropía: $\Delta S$ = $S_\textrm{final} - S_\textrm{initial}$ . ¿Qué es la entropía inicialmente (hay alguna dispersión de energía inicialmente)? Indique la definición de entropía y no su cambiar .

Para aclarar, me interesa la definición de entropía en términos de temperatura, no en términos de microestados, pero agradecería la explicación desde ambas perspectivas.

21voto

Count Iblis Puntos 3330

La entropía de un sistema es la cantidad de información necesaria para especificar el estado físico exacto de un sistema dada su especificación macroscópica incompleta. Así, si un sistema puede estar en $\Omega$ estados posibles con igual probabilidad, entonces el número de bits necesarios para especificar exactamente en cuál de estos $\Omega$ estados en los que realmente se encuentra el sistema sería $\log_{2}(\Omega)$ . En unidades convencionales expresamos la entropía como $S = k_\text{B}\log(\Omega)$ .

16voto

Terry Bollinger Puntos 11535

He aquí una respuesta intencionadamente más conceptual: La entropía es la suavidad de la distribución de energía en una región determinada del espacio. Para hacerlo más preciso, hay que definir la región, el tipo de energía (o masa-energía) que se considera suficientemente fluida dentro de esa región para ser relevante, y el espectro de Fourier y las fases de esos tipos de energía sobre esa región.

El uso de los ratios relativos "elimina" gran parte de esta fea confusión al centrarse en las diferencias de suavidad entre dos regiones muy similares, por ejemplo, la misma región en dos puntos del tiempo. Por desgracia, esto también oculta la complejidad de lo que realmente ocurre.

Aun así, la suavidad sigue siendo la característica clave que define una mayor entropía en estas comparaciones. Un campo con una hoguera rugiente tiene una entropía menor que un campo con brasas frías porque, con respecto a las formas de energía térmica e infrarroja, la hoguera viva crea un pico enorme y muy poco suave en el centro del campo.

0 votos

Esta respuesta parece ser citada regularmente dentro de SE, pero nunca he visto nada parecido en la literatura y no es obvio para mí cómo manejaría cuestiones como la entropía de la mezcla.

2 votos

Culpable de los cargos, a veces intento explicar los conceptos subyacentes en lugar de limitarme a citar las ecuaciones o los riffs estándar. Pero le aseguro que, en esos casos, las explicaciones que doy se basan en una lectura y un análisis muy cuidadosos de esas definiciones fundamentales; no son simples "analogías" o alguna forma de interpretación suelta.

0 votos

En cuanto a la entropía de la mezcla, ¡me sorprende sinceramente tu sorpresa! ¿Qué podría representar más un cambio hacia la suavidad en el nivel de resolución molecular que la mezcla íntima de dos o más poblaciones de moléculas únicas previamente segregadas macroscópicamente?

12voto

Chris Kobrzak Puntos 46

En términos de temperatura, la entropía puede definirse como $$ \Delta S=\int \frac{\mathrm dQ}{T}\tag{1} $$ que, como usted señala, es realmente un cambiar de la entropía y no la propia entropía. Así, podemos escribir (1) como $$ S(x,T)-S(x,T_0)=\int\frac{\mathrm dQ(x,T)}{T}\tag{2} $$ Pero, somos libres de fijar el punto cero de la entropía en lo que queramos (para que sea conveniente) 1 por lo que podemos utilizar $$S(x,T_0)=0$$ para obtener $$ S(x,T)=\int\frac{\mathrm dQ(x,T)}{T}\tag{3} $$ Si suponemos que el aumento de calor $\mathrm dQ$ se determina a partir de la capacidad calorífica, $C$ entonces (3) se convierte en $$ S(x,T)=\int\frac{C(x,T')}{T'}~\mathrm dT'\tag{4} $$


1 Esto se debe a la ordenación perfecta que se espera en $T=0$ Es decir, $S(T=0)=0$ según la tercera ley de la termodinámica.

0 votos

Señor, ¿entonces toda la entropía inicial es 0 o no?

1 votos

@user36790: Puedes hacer cero, pero eso no significa que tiene sea cero.

0 votos

Señor, ¿puede darme un ejemplo en el que la inicial $S$ no es 0?

5voto

Henry Troup Puntos 107

La entropía del sistema a temperatura cero se puede ajustar a cero, de acuerdo con la definición estadística $S=k_B\ln\Omega$ . Entonces el S bajo otra temperatura debe ser $S=\int_0^T{\frac{dQ}{T}}$ .

0 votos

Su segunda ecuación es más bien una definición de la temperatura en el conjunto microcanónico.

0 votos

¡¡¡No puedo creer que una respuesta como esta tenga más apoyo!!!

4voto

Dala Puntos 1187

En primer lugar, hay que entender que Rudolf Clausius elaboró sus ideas sobre la entropía para dar cuenta de las pérdidas de energía que se producían en la aplicación práctica de la máquina de vapor. En aquel momento no tenía ninguna capacidad real para explicar o calcular la entropía, salvo para mostrar cómo cambiaba. Por eso nos quedamos con mucha teoría en la que miramos los deltas, el cálculo era la única maquinaria matemática para desarrollar la teoría.

Ludwig Boltzmann fue el primero en dar a la entropía una base firme más allá de los simples deltas mediante el desarrollo de la mecánica estadística. Esencialmente, fue el primero en comprender realmente el concepto de microestado, que era un vector en un espacio multidimensional (por ejemplo, uno con dimensiones potencialmente infinitas) que codificaba toda la información de posición y momento de las partículas compuestas subyacentes. Dado que la información real sobre esas partículas era desconocida, el microestado real podía ser uno de los muchos vectores potenciales. La entropía es simplemente una estimación del número de posibles vectores que realmente podrían codificar la información sobre las posiciones y los momentos de las partículas (recordemos que cada vector individual codifica por sí mismo la información sobre todas las partículas). En este sentido, la entropía es una medida de nuestra ignorancia (o falta de información útil).

Este último uso de la entropía para medir nuestro nivel de conocimiento es el que llevó a Claude Shannon a utilizar la maquinaria de la entropía en la mecánica estadística para desarrollar la teoría de la información. En ese marco, la entropía es una medida de las posibles permutaciones y combinaciones que puede adoptar una cadena de letras. Comprender la entropía de la información es muy importante para entender la eficacia de varios esquemas de encriptación.

En cuanto a la definición de la temperatura en términos de entropía. En general, se consideran medidas distintas pero relacionadas del macroestado de un sistema. Los diagramas de temperatura-entropía se utilizan para entender la transferencia de calor de un sistema. En la mecánica estadística, la función de partición se utiliza para codificar la relación entre la temperatura y la entropía.

Sitios web útiles

Este sitio web es muy útil; véase la ecuación 420, temp está incluida en la definición de beta. Este sitio web explica la definición de entropía de Rudolf Clausius. Este sitio web habla sobre Claude Shannon y sus contribuciones a la teoría de la información. Este sitio web explica la historia de la entropía y algunas de las diferentes definiciones. Este sitio web habla de la vida de Ludwig Boltzmann y de la definición de entropía. Este sitio web explica aún más la relación entre la temperatura y la entropía.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X