15 votos

¿Por qué es la entropía aditivo?

Aunque parece sencillo, no puedo conseguir la derivación correcta. Aquí está mi razonamiento:

$P(S)=P(A)P(B)$

Donde P es la probabilidad e S, a, y B denotan diferentes sistemas.

$S_A=-P(A)\ln P(A)$ $S_B=-P(B)\ln P(B)$

A continuación, $$S_{S}=-P(S)\ln P(S)=-P(S)\ln P(A)P(B)=-P(S)\ln P(A)-P(S)\ln P(B)$$

El problema es, desde el $P(A)P(B)\neq P(S)$, ¿cómo puede la entropía ser aditivo?

20voto

Sora Puntos 113

Si usted se considera un sistema de $C$ y dos subsistemas $A,B$ asociada con las distribuciones de probabilidad de $p_C,p_A,p_B$ y desea que la entropía para agregar, usted debe asumir los subsistemas son independientes en el sentido de que $p_C(X) = p_A(Y)p_B(Z)$ donde $Y$ $Z$ son una partición de las variables $X$ pertenecientes a $C$. A continuación, el total de entropía es \begin{align} S_C & = \langle -\ln(p_C)\rangle\\& = -\int p_C(X)\ln(p_C(X))\mathrm{d}X \\ & = -\int p_A(Y)p_B(Z)(\ln(p_A(Y))+\ln(p_B(Z))\mathrm{d}Y\mathrm{d}Z \\ & = -\int p_A(Y)p_B(Z)\ln(p_A(Y))\mathrm{d}Y\mathrm{d}Z - \int p_A(Y)p_B(Z)\ln(p_B(Z)\mathrm{d}Y\mathrm{d}Z \\ & = S_A+ S_B \end{align} debido a $\int p_A(Y)\mathrm{d}Y = 1$, y, asimismo, para $B,Z$.

La hipótesis de independencia estadística es crucial. La entropía es, a partir de la teoría de la información punto de vista, se espera que la cantidad de información codificada en un sistema. Si dos sistemas no son independientes, es evidente que la información codificada en ellos, juntos, será menor que la suma de la información que se puede extraer de cada uno sin conocer al otro. Que es la clásica, la entropía es subadditive, pero sólo aditivo si los sistemas que se están sumando son estadísticamente independientes.

2voto

Loophole Puntos 351

Dejar que los dos sistemas se $A$ $B$ energía $E_A$ $E_B$ respectivamente.

Cuando interactúan el uno con el otro, cada uno de los sistema de energía fluctúa, pero la energía de la total del sistema es siempre constante viz. $E_A + E'_B= E^*= \textrm{const.}$

Ahora, considere el total del sistema en equilibrio.

¿Cuál es la probabilidad de que $A$ tiene energía $E_{A}\;?$

Deje que el número total de accesible microstates de que el sistema total se $\Omega_\textrm{tot}= C^{-1}$.

Ahora, la probabilidad de que $A$ $E_A$ está dado por $$P(E_A)= \frac{\Omega(E)\Omega'(E^* - E)}{\Omega_\textrm{tot}}$$ donde \begin{align}\Omega &= \textrm{number of microstates accessible to}\,\, A\\ \Omega' &= \textrm{number of microstates accessible to}\,\, B\end{align}

Tomando el logaritmo de ambos lados, obtenemos \begin{align}\ln P(E_A)& = \ln C + \ln \Omega(E_A) + \ln\Omega'(E'_B)\end{align}

Ahora, pues, el estado de equilibrio es dominado por el macrostate tener el máximo número de multiplicidades, el valor esperado de la energía debe cumplir con esta condición $$\frac{\partial \ln P}{\partial E_A}= 0\;.$$

Esto le da a $$\frac{\partial \ln \Omega}{\partial E_A}= \frac{\partial \ln \Omega'}{\partial E_A}\,\,\,\,\, [\textrm{using}\,\,\, E'_B = E^*- E_A]\;. $$

Cada término anteriormente se llama $\beta$ parámetro.

Ya, $\beta$ tiene la dimensión de la energía recíproca, se puede expresar como $$\beta \equiv \frac{1}{k\,T}$$ donde \begin{align}k &= \textrm{a positive constant}\\ T &= \textrm{a measure of energy}\;.\end{align}

Por lo tanto, \begin{align}\beta &= \frac{\partial \ln \Omega}{\partial E_A}\\ \frac{1}{T} &\equiv \frac{\partial k \ln \Omega}{\partial E_A}\\ & = \frac{\partial S}{\partial E_A} \end{align} donde: $$S=k \ln \Omega \;.$$

Ahora, \begin{align}k\ln\left\{ \frac{P(E_A)}{C}\right\}& = k\ln \Omega(E_A) + k\ln\Omega'(E'_B)\\ \implies k\ln \Omega^*&= k\ln\Omega + k\ln\Omega'\\ S^* & = S_A + S_B\;.\end{align}

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X