14 votos

¡Axiomas detrás de entropía!

El concepto de entropía es muy ubicua, podemos aprender acerca de sus usos a partir de la Teoría de la Información (entropía de Shannon) en su definición básica en mecánica estadística en términos de número de micro-estados.

Limitar la discusión a la física, cuando se estudia un sistema físico, puede ser una caja llena con un gas ideal, una fusión de los polímeros o el estado de varillas o moléculas en un líquido cristalino del sistema, en todos los casos, no son específicos de la entropía términos que nos definen en la descripción de la evolución del sistema (mediante la inclusión en la energía libre expresión).

A partir de una mecánica estadística punto de vista, hacemos uso de Boltzmann es la definición de: $$S=k_B \ln\Omega$$ donde $\Omega$, puede ser la función de partición de un conjunto, o simplemente el número de microstates dentro de un determinado macrostate. Pero, por supuesto, casi nunca uso esta forma exacta de la entropía en el estudio de sistemas reales, como es imposible contar la microstates por cualquier medio. En su lugar podemos definir la entropía términos en función de variables macroscópicas de un sistema, como las siguientes (ejemplos entre los más habituales):

  • Para un gas perfecto, se puede escribir la entropía por átomo de N átomos en el volumen V como: $$S_{\rm ideal}=k_B \ln\left(a\frac{V}{N}\right)$$ con $a$ una constante.

  • En el soft de la materia condensada, el estudio de líquido de cristalinidad, a menudo definimos un orientador de la entropía, que describe la entropía perdido cuando las moléculas están orientadas. En su mayoría de forma general se define como: $$S_{\rm orient}=-k_B \int f(\theta)\ln f(\theta)d\Omega$$ where $f(\theta)$ is an orientation distribution function and $d\Omega$ un pequeño ángulo sólido.

  • En los polímeros de la física, a menudo hay entrópica términos atribuidos a la homogeneidad en el número de densidad de la distribución de los monómeros $n(i)$ a lo largo de las cadenas (a menudo llamado Lifshitz entropía), que se describe como $$S_{\rm homogeneity}\propto -\left(\nabla \sqrt{n(i)}\right)^2$$, que es sólo el gradiente de densidad de la distribución.

En todos estos casos, es relativamente sencillo ver por qué nos referimos a tales funciones de estado como "entrópico", ya que todas se reducen a la descripción de un cierto tipo de trastorno en el sistema, y cómo su inclusión efecto el estado de equilibrio de un sistema. Pero la pregunta que subyace es, cómo damos de física y matemáticas de los límites a estos términos entrópicos debe ser coherente, por lo tanto, no debe ser un conjunto de axiomas que una función debe cumplir para calificar como un término entrópico.

Para elaborar la pregunta:

Por un lado, desde un punto de vista físico, la entropía se establece siempre para llegar a su máximo en la mayoría de los estado desordenado, y un mínimo para los más solicitados caso (es decir, 1 de posibles micro-estado, completa certeza sobre su estado). Por ejemplo, en los cristales líquidos de nuevo, queremos que $S_{\rm orient}$ a estar al máximo en el orientationally desorden, el vacío, y para que sea como mínimo en la completamente ordenó a los estados, como la esméctica.

Por otro lado, matemáticamente exigimos que:

  1. $S$ ser continua en cada una de las $\Omega$
  2. Para ser un gran tamaño del sistema
  3. Diferenciable (¿tiene que ser siempre?)
  4. Ruta de acceso independiente: estado de la función
  5. ...¿qué más?

Claramente si no sabemos cómo unido a las funciones basadas en un conjunto de axiomas, no podemos saber si van a hacer sentido de física y matemática.

(Útil pensamiento escenario: Imagina que el estudio de un sistema de partículas en suspensión, donde su posición y distribución viene con una cierta periodicidad, si vamos a un atributo de la entropía plazo para el estado de la periodicidad del sistema, ¿qué condiciones debería el estado en función de satisfacer.)

  • ¿Cuáles son los axiomas de ser satisfecho por una función de estado para calificar como la entropía?

11voto

John R Ramsden Puntos 143

Última físico motivación

Estrictamente en el sentido de la física, la entropía es menos libre de lo que podría parecer. Siempre tiene que proporcionar una medida de la energía liberada a partir de un sistema que no se pueden agarrar por parámetros macroscópicos. I. e. tiene que estar sujeto a la relación $${\rm d}U = {\rm d}E_{macro} + T {\rm d} S$$ Se tiene que llevar todas las formas de energía que no puede ser expresable macroscópicamente, que podemos resumir como "calor", pero la física detrás de este "calor" puede ser muy diferente de las nociones en los gases etc. Si la entropía no satisface esta relación, no es una física de la entropía. Esta sería una caracterización completa de la entropía para macrophysics. Voy a usar sólo esta definición, no los casos en los que la entropía es un identificador para hablar acerca de la información.


Estadísticas de la formulación

Esta restricción de hecho, le proporciona la libertad para la definición estadística de la entropía, pero no en el efecto. La libertad es, básicamente, en el hecho de que estamos haciendo las $N\to \infty$ $V \to \infty$ límites y una gran cantidad de información a partir de la definición obtiene untado. Podemos, por ejemplo, definir el espacio de fase de volumen de la microcanonical conjunto de tres maneras distintas. Primero es $$\Omega_{sharp} = \int_{\sum E = U} d \mu$$ Donde $\mu$ es algún tipo de medida en el espacio de estados. O podemos poner $$\Omega_{non-sharp} = \int_{\sum E \in (U-\varepsilon,U)} d \mu$$ o incluso $$\Omega_{nobody \, cares} = \int_{\sum E < U} d \mu$$ Cualquiera de ellos va a trabajar para $S = k_B \log \Omega$ en el mencionado límite (el límite dará el mismo $S$). Pero esto es más que un vestigio de la ampliación de los límites - el físicamente plausible es $\Omega_{sharp}$.

La cuestión mucho más importante es contar el número de estados que corresponda, la transición de estados discretos continuos queridos y por qué se les debería considerar "democrática". Esta sería una muy larga discusión que involucra ergodicity y así sucesivamente.

Para ergodic sistemas Hamiltonianos, la probabilidad de medida es sin duda proporcional a $d^n x d^np$ donde $n$ es el número de grados de libertad. A partir de la mecánica cuántica sabemos, que la "democracia" factor de discreto a continuo de los estados hace que esta medida $d^n x d^np/h$ $h$ la constante de Planck. (Sólo los pesos relativos de importancia, ya que normalicemos de todos modos.)

La conclusión es que los procedimientos de la física estadística, para un sistema dado, nos puede dar la entropía de forma inequívoca (hasta un aditivo constante que representa la libertad de estado para la normalización).


De la mano waivy conclusión

Así que siempre hay una entropía para cada situación y sabemos cómo derivar. El truco es solo para especificar que los títulos son "gratis" o llegar aleatorizados en una complicada interacción y a su vez en las estadísticas.

Pero hay algunas lagunas. Vemos que la justificación de todo el procedimiento (la "democratización" de los estados) se basa en la formulación Hamiltoniana y básicamente también de cuantización. Pero sabemos que la cuantificación es más un arte que una ciencia y el procedimiento estadístico se puede ejecutar en problemas similares como la cuantización. Nosotros siempre estamos seguros de lo que los parámetros macroscópicos de un sistema? ¿Cómo podemos describir la situación cuando observamos el microestado directamente? ¿Cuál sería la entropía de un espacio-tiempo relativista? Lo que sería el "activado" grados de libertad? Etc. Pero esta es una pregunta para el "arte de la física".


Nota adicional: "el Arte de la física" - modelización y confirmando

Un breve comentario sobre "el arte de la física". Como con cualquier físicas de los modelos y aproximaciones, existen tres criterios:

  1. Fundación en (más) física elemental
  2. La auto-consistencia de los resultados con la asunción
  3. La verificación empírica

Digamos que tenemos un sistema abierto $\Xi$ con un canal de entrada de partículas. Sin embargo, sólo sabemos cómo calcular los parámetros relevantes para la alimentación para el pequeño número de densidades en $\Xi$, porque entonces podemos utilizar una de un modelo de partícula de entrada y salida desde el sistema. La de un modelo de partícula sería el punto 1. - fundación de la física se consideran fundamentales. Por lo tanto suponer la baja densidad del número y del cálculo de las estadísticas del sistema.

Pero aquí es donde el teórico no debe pararse, el último paso es comprobar si la densidad es lo suficientemente bajo bajo cualquier elección de parámetros e identificar estas regiones en el espacio de parámetros - este es el punto 2. Sin embargo, esta es una muy primitiva concepción. Para un modelo serio, el teórico debe, al menos, comprobar si dos y más de partículas de los modelos de entrada no pueden de repente asumir incluso a bajas densidades e investigar bajo qué condiciones no. Esto es 1. mezclar con 2.

Sin embargo, también hay 3. - la verificación empírica. Sería muy ingenuo pensar que el teórico es capaz de anticipar todos los posibles efectos. De hecho, Einstein papers son bien conocidos que acaba de disparar un modelo sin mucho matemático de los debates de la olvidada efectos, y dar predicciones experimentales de inmediato. A veces, la intuición reglas (a veces no).

En el caso de la entropía, esto se lograría mediante la medición de la respuesta de calor del sistema. No sólo capacidades de calor en el formulario $$C_{...} \sim \left(\frac{\partial S}{\partial T}\right)_{| ...=const.} $$ pero también un montón de otras coeficiente de respuesta que implican la temperatura especificados por ejemplo, por las relaciones de Maxwell.

Así que la respuesta sería: Si un bien desarrollado el modelo de predicción cuantitativa de la entropía existe y es confirmado por pruebas exhaustivas, la entropía califica como la única entropía del sistema.


Nota adicional: se Observó condiciones matemáticas

Digamos que nuestra la física, la motivación es primordial. A continuación, el más fuerte de lo que podemos decir es lo siguiente:

  • La entropía es una función con valores de todo el conjunto de parámetros macroscópicos. (I. e. si es que no también podría ser debido a que la lista de parámetros no es completa.)
  • La entropía tiene un número finito de diferencia entre cualquier dos puntos en el macro espacio de parámetros. I. e. $|\Delta S|<\infty$.
  • La entropía es homogénea en los parámetros definidos por criterios como "extensa". I. e. para un completo conjunto de extensas parámetro $A_i$ tenemos $S(\lambda A_1, ...,\lambda A_n, ...) = \lambda S(A_1,...,A_n,...), \forall \lambda <0$.

En las transiciones de fase tan común como la congelación/fusión de la entropía es incluso discontinuo, por lo tanto el criterio. (Pero esto sólo ocurre en el $N \to \infty$ límite como se discutió por ejemplo, por Kardar en sus notas.) Físicamente somos capaces de medir sólo$\Delta S$, por lo que un requisito estricto de $dS$ es tanto redundante y que es imposible para algunos muy comunes de los sistemas.

Es importante que el "extensividad" es decir "tomar otra copia del sistema" - los parámetros que se doble por esta operación son extensas, pero lo es también el calor almacenado en el nuevo "doble" del sistema. Tomando toda la extensa parámetros y multiplicando por $\lambda$, significa "tomar $\lambda$ copias del sistema". Todo esto se basa en gran medida en el hecho de que somos capaces de muy claramente identificar la operación física de "tomar otra copia del sistema".

Hay casos como el agujero Negro de la termodinámica , donde esa noción de falla. En cierto modo, todo el espacio-tiempo, es el sistema termodinámico, por lo que "otra copia del sistema" es difícil de precisar. (Más técnicamente, las fórmulas son aislados de los agujeros negro y no hay manera de ver en pantalla la gravedad de otro modo que por la distancia infinita.) Podría parecer que el horizonte de la superficie de $A$ sería una extensa parámetro, pero en realidad crece como $\sim M^2$ - no podemos simplemente decir "el doble de la masa", porque eso no iba a funcionar.

4voto

Hmazter Puntos 66

[Como lo solicita, puedo convertir mi comentario en una respuesta, ya que también podría ser útil para otras personas.]

Es muy interesante la serie de obras de Lieb y Yngvason en la entropía y la segunda ley de la termodinámica, según el tipo de enfoque axiomático que parece estar interesado en. Usted puede comenzar con este documento introductorio, o este, este o este más detallados. También hay probablemente unos a otros por los mismos autores.

2voto

rocketmonkeys Puntos 258

Termodinámicamente la entropía se define por \begin{equation} \mathrm{d}S = \frac{\mathrm{d}Q_{rev}}{T} \, ,\end{equation} donde $\mathrm{d}Q_{rev}$ es el calor transferido de forma reversible. Como usted señala se puede demostrar que esta cantidad es una función de estado. Esto implica que la entropía de cualquier sistema termodinámico, hasta una constante, bien definida y el valor dado por \begin{equation} S = S_0 + \int_0^T \frac{C}{T^\prime}\mathrm{d}T^\prime \, ,\end{equation} donde: $C = \frac{\partial Q}{\partial T}$ es la capacidad de calor del sistema. Así que si se establece el valor de la entropía de un sistema en el cero absoluto, las leyes de la termodinámica y de las propiedades físicas del sistema de fijar el valor de la entropía.

Las fórmulas que tenemos para que las entropías de los diversos sistemas no son, por tanto, algo que se deriva más que decidido. Contando microstates no es un práctico experimentalmente, pero se puede hacer teóricamente para un modelo determinado. A partir de esto podemos usar Gibbs o Boltzman fórmulas para derivar una fórmula de la entropía en términos de cantidades macroscópicas y esto puede ser comparado con las mediciones experimentales de la capacidad de calor.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X