45 votos

¿Cómo es $\frac{dQ}{T}$ ¿Medida de la aleatoriedad del sistema?

Estoy estudiando la entropía y me cuesta ponerme al día de lo que es exactamente la entropía.

En muchos artículos y libros se dice que la entropía es la medida de la aleatoriedad o el desorden del sistema. Dicen que cuando se deja expandir un sistema gaseoso la aleatoriedad aumenta, etc. Pero terminan diciendo $\frac{\mathrm dQ}{T}$ es la medida del aumento de la aleatoriedad y se denomina entropía.

Aunque crea que la entropía es la medida de la aleatoriedad del sistema no lo entiendo:

  1. ¿Cómo es que $\frac{\mathrm dQ}{T}$ ¿tiene la información sobre la aleatoriedad del sistema?
  2. Cómo es la entropía propiedad independiente de cualquier sistema. Supongo que dos parámetros cualesquiera de la ecuación $PV=nRT$ debe describir completamente el sistema. ¿Por qué necesitamos la entropía?

Gracias.

21voto

RichieACC Puntos 935

Esta respuesta es un poco forzada, pero creo que debería ayudar a comprender los conceptos a un nivel intuitivo.

En primer lugar, la entropía no es una medida de aleatoriedad. Para un sistema aislado en equilibrio bajo la supuesto fundamental de la mecánica estadística la entropía es sólo $$ S=k\ln\Omega $$ donde $\Omega$ es el número de microestados - configuraciones microscópicas del sistema - compatibles con el macroestado dado - estado de equilibrio macroscópico caracterizado por variables termodinámicas.

Se deduce de la segunda ley $$ \delta Q = T\mathrm{d}S=T\mathrm{d}(k\ln\Omega)=kT\frac1\Omega\mathrm{d}\Omega $$ o de forma equivalente $$ \mathrm{d}\Omega = \Omega\frac{\delta Q}{kT} $$ La energía $kT$ está relacionado con el energía media por grado de libertad Por tanto, esta fórmula nos dice que la transferencia de calor a un sistema en equilibrio abre un nuevo número de microestados proporcional al número de los existentes y al número de grados de libertad que la energía transferida puede excitar.

20voto

Herb Wilf Puntos 196

En mi opinión, no es estrictamente correcto decir que la entropía es "aleatoriedad" o "desorden". La entropía se define en la mecánica estadística como $-k_B \sum_i p_i \log p_i$ où $k_B$ es la constante de Boltzmann (que sólo está ahí para ponerla en unidades físicamente convenientes) y $p_i$ es la probabilidad de que el sistema se encuentre en el estado $i$ . Estas probabilidades no significan que el sistema esté saltando "aleatoriamente" de un estado a otro (aunque muy a menudo es así), sólo significan que usted, como experimentador que observa el sistema, no sabe exactamente en qué estado se encuentra, pero cree que algunos son más probables que otros. Como Shannon (1948) y Jaynes (1957) En la actualidad, esta fórmula de la entropía se ha interpretado en términos de la información que un experimentador tiene sobre un sistema: cuanta menos información, más entropía. (Estos enlaces son sólo para completar, no recomendaría su lectura como primera introducción al tema). La cantidad de información que un experimentador tiene sobre un sistema puede disminuir por muchas razones, pero la única forma en que puede aumentar es si el experimentador realiza una nueva medición. Esta es la razón de la segunda ley de la termodinámica.

Cabe señalar que hay muchas perspectivas diferentes sobre el significado de la entropía y la segunda ley, y no todo el mundo está de acuerdo con la que he esbozado anteriormente. Sin embargo, intentaré responder a tus dos preguntas desde este punto de vista.

  1. Desde una perspectiva moderna, es mejor ver $dS = \frac{dQ}{T}$ como una definición de $Q$ más que de $S$ . Después de todo, $S$ ya tiene una definición en términos de probabilidades. Si vemos $dQ$ que se define como $TdS$ podemos ver que es igual a $dU + PdV - \sum_i \mu_i dN_i$ (reordenando el ecuación fundamental de la termodinámica ), que es igual al cambio total de energía menos la energía que se transfiere en forma de trabajo. (Aquí he definido el trabajo como "trabajo mecánico" $PdV$ más "trabajo químico" $-\mu_i dN_i$ . También puede añadir términos para trabajos eléctricos, etc.)

  2. Hay varias razones por las que necesitamos considerar la entropía de un gas ideal. Una de ellas es que $T$ que aparece en la ley de los gases ideales, se define como $T=\frac{\partial U}{\partial S}$ Así pues, el $S$ viene de esa manera. Otra es que la ecuación $PV = nRT$ no te dice cómo cambia la temperatura cuando añades energía al sistema. Para ello es necesario conocer la capacidad calorífica, que está estrechamente relacionada con la entropía. Por último, el concepto de entropía es muy útil para entender por qué no se puede construir una máquina de movimiento perpetuo.

Si este punto de vista le parece que puede tener sentido, quizá merezca la pena leer este documento de Jaynes, que adopta una perspectiva histórica, explicando cómo se descubrió por primera vez la entropía (y se definió en términos de $dQ/T$ ), y cómo luego, inesperadamente, resultó ser todo información.

14voto

Sam Saffron Puntos 1304

Las respuestas anteriores contienen una gran cantidad de información significativa. Sin embargo, parece que sigue faltando una imagen intuitiva breve y sencilla.

La conclusión es que la temperatura mide la energía por grado de libertad y por lo tanto $\frac{dQ}{T}$ no mide más que el número de grados de libertad sobre los que se ha extendido la energía. El número de grados de libertad describe la complejidad microscópica (como otros han señalado, el término "aleatoriedad" muchos lo consideran menos apropiado) del sistema, es decir, la cantidad de información necesaria para especificar el sistema hasta sus detalles microscópicos. Esta cantidad se conoce como entropía (estadística).

Te puede gustar este blog que trata el tema.

7voto

heathrow Puntos 25

Debes pensar en la ecuación

$$ dS = {dQ\over T}$$

Como la definición de temperatura no de la entropía. La entropía es más fundamental, es el tamaño del espacio de fase, el logaritmo del número de estados posibles. La temperatura es una derivada de ésta con respecto a la energía.

Para entender por qué esto tiene sentido, ponga dos sistemas uno al lado del otro. Si la energía fluye de caliente a frío, la pérdida de entropía en el sistema caliente se compensa con creces con la ganancia de entropía del sistema frío. Así que la energía fluirá de caliente a frío, estadísticamente, en promedio.

No son las propiedades de la temperatura las que hacen $dQ\over T$ un cambio de entropía, sino que son las propiedades de la entropía las que hacen que el coeficiente de $dS\over dQ$ una temperatura inversa.

4voto

Tajar Puntos 121

Vale la pena señalar que su definición de un cambio elemental en la entropía de un sistema, a saber:

$dS=\displaystyle\frac{\delta Q}{T}$

Sólo es válido para un _cambio internamente reversible_ . No se trata de un tecnicismo que pueda omitirse; creo que parte de tu pregunta podría estar relacionada con la noción de calor (una cantidad medible de energía transferida) y la incertidumbre estadística (que es, hasta interpretaciones alternativas y equivalentes, el significado intrínseco de la entropía).

En un proceso internamente reversible que implica la adición o sustracción de calor de un sistema, ese T bajo de calor ( inexacto ) debe haber una temperatura uniforme en toda la extensión espacial del sistema hasta sus límites, de modo que en todo momento la temperatura de los límites del sistema sea igual a su temperatura global (y única). Esto significa que no hay gradientes de temperatura en el interior del sistema de interés, y debido a ese mismo hecho, no hay posibles intercambios de calor dentro de los límites del sistema. Esto se debe a que, para que un sistema intercambie calor con otro, debe haber una diferencia de temperatura entre ellos, y si la diferencia es cero (son iguales) entonces no se transferirá calor. Si lo pensamos bien, este es un argumento sólido: un vaso de agua fría se calienta cada vez más cuando lo dejamos en una habitación, pero cuando alcanza la misma temperatura del aire que lo rodea, ya no hay más cambios y se queda ahí indefinidamente.

Volviendo a la ecuación original, ahora se puede interpretar que el lado derecho nos dice que, en situaciones en las que la temperatura del sistema es uniforme en todo momento La relación entre la cantidad infinitesimal de calor añadido o sustraído al sistema por su entorno, y la temperatura única en cada punto del sistema (que no es más que una medida de la energía cinética media de las moléculas individuales que lo componen), es igual a su cambio de entropía. ¿Y qué es la entropía? Pues, hablando macroscópicamente Puedes tomar lo que he escrito arriba como una definición de la entropía, y se puede deducir termodinámicamente que es, efectivamente, una función de estado (sólo depende de las propiedades puntuales del sistema, como su presión y temperatura) y no depende de la cadena de acontecimientos por la que se llegó a ese estado.

Por otro lado, la mecánica estadística (que es una forma más reciente de abordar lo que vemos macroscópicamente como propiedades termodinámicas, como la entropía, a partir de una descripción mecánica a nivel molecular) nos da más detalles sobre la naturaleza de la entropía. Creo que es mejor pensar en ella no como una medida de la aleatoriedad, sino como la incertidumbre del estado (microscópico) del sistema.

Te pongo un ejemplo sencillo: imagina que tienes una mesa de billar con el tablero totalmente cubierto por una tela opaca, con un solo extremo abierto para introducir el taco. Supongamos ahora que ya sabes (por algún medio) que las ocho bolas se distribuyan en la mesa formando una línea recta con un espacio igual entre ellas, pero no sabes donde se encuentra exactamente esta línea en el área rectangular de la mesa; y que, a efectos del experimento, la blanca está justo al lado del agujero (y por supuesto lo sabes). Ahora, coges el taco, lo introduces en el agujero de la tela que se ha dejado abierto, y golpeas la bola blanca. Tras unos segundos de colisiones (auditivas), puedes estar seguro de que el movimiento se ha detenido bajo la tela. ¿Qué ha pasado con sus conocimientos sobre el sistema?

Bueno, no sabes dónde ha ido a parar cada bola (¡hemos sellado las bolsas, por supuesto!) pero no lo sabías antes del golpe, ¿verdad? Pero entonces, al menos sabías que estaban formando una línea, y que la información ha desaparecido. Desde su punto de vista exterior, su información previa sobre las posiciones de las bolas y la energía y el impulso que introdujo en el sistema a través del golpe no es suficiente para descartar un gran número de posibles distribuciones reales de las bolas. Al principio del experimento, podías al menos anotar el número de posiciones posibles de la línea de bolas (quizás dibujando una cuadrícula sobre el área de la mesa, con la longitud de los lados de cada celda igual al diámetro de una bola, y contando el número de líneas longitudinales de las celdas), pero ahora el número de posiciones posibles tiene multiplicado . Antes y después sólo tienes parcial conocimiento de la configuración del sistema (lo único que se puede hacer es contar las posibles, en base a lo que se conoce del sistema desde el exterior, que restringen las posibilidades) pero ese conocimiento tiene disminuido después del experimento. No tiene nada que ver con la física de las colisiones entre las bolas: tiene que ver con el hecho de que no se ven las pelotas desde su punto de vista, y todo lo que puede hacer es recuperar información parcial a través de mediciones indirectas.

La analogía con el ejemplo anterior en un sistema estadístico es que mediante las mediciones de los observables macroscópicos (como la temperatura, la presión, la densidad, etc.) sólo medimos propiedades microscópicas medias . Por ejemplo, la temperatura es una medida de la energía cinética molecular media, y la presión es una medida de la tasa media de impulso transferida por las moléculas en movimiento por unidad de superficie. Medirlas nos da un conocimiento parcial de su configuración microscópica (como la información original que tenías sobre las posiciones de las bolas de billar). Y cualquier cambio en los observables macroscópicos se correlaciona con un cambio en las configuraciones microscópicas posibles (es decir, no descartadas), y entonces eso provoca un cambio en nuestro conocimiento al respecto. Resulta que esos cambios pueden ser medidos, y eso sí es variación de entropía, en el sentido de que un aumento de la entropía se correlaciona con un aumento de la incertidumbre, o una disminución del conocimiento . Demostrar que esta relación se mantiene, partiendo de un marco mecánico, es el objetivo de mecánica estadística .

Por último, espero que puedas ver ahora que lo que $\displaystyle\frac{\delta Q}{T}$ es sólo análogo a la energía introducida por el golpe en el experimento en relación con el conocimiento previo de la posición de las bolas (las temperaturas más bajas implican menos movimientos moleculares traslacionales, rotacionales y vibracionales, y viceversa, por lo que en realidad es una "medida parcial" de sus posiciones). Así pues:

  1. No contiene la información sobre la aleatoriedad del sistema, es sólo una medida del aumento de la incertidumbre desde una perspectiva macroscópica, y sólo es válida para los procesos reversibles (en general, la entropía puede aumentar sin añadir energía a un sistema).

  2. Como se ha dicho en otras respuestas, la entropía es necesaria para definir algunos de los términos de cualquier ecuación de estado (como la ley de los gases ideales), y por cierto, las ecuaciones de estado son simplemente aproximaciones al comportamiento real de las sustancias reales (algo bastante claro en la parte "ideal" de la ley que citas), por lo que es natural que se basen en conceptos más fundamentales (como la entropía).

EDITAR: Como Nathaniel señaló acertadamente más abajo, mi afirmación original de que la validez de la definición macroscópica de entropía en términos de calor y temperatura dependía de la (tácitamente) total reversibilidad del proceso, era defectuoso. El único requisito para que sea válido es que el proceso de intercambio de calor sea internamente reversible, ya que sólo estamos midiendo de esta manera el cambio de entropía dentro del sistema (y por lo tanto las irreversibilidades externas asociadas al proceso son irrelevantes).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X