Última físico motivación
Estrictamente en el sentido de la física, la entropía es menos libre de lo que podría parecer. Siempre tiene que proporcionar una medida de la energía liberada a partir de un sistema que no se pueden agarrar por parámetros macroscópicos. I. e. tiene que estar sujeto a la relación
$${\rm d}U = {\rm d}E_{macro} + T {\rm d} S$$
Se tiene que llevar todas las formas de energía que no puede ser expresable macroscópicamente, que podemos resumir como "calor", pero la física detrás de este "calor" puede ser muy diferente de las nociones en los gases etc. Si la entropía no satisface esta relación, no es una física de la entropía. Esta sería una caracterización completa de la entropía para macrophysics. Voy a usar sólo esta definición, no los casos en los que la entropía es un identificador para hablar acerca de la información.
Estadísticas de la formulación
Esta restricción de hecho, le proporciona la libertad para la definición estadística de la entropía, pero no en el efecto. La libertad es, básicamente, en el hecho de que estamos haciendo las $N\to \infty$ $V \to \infty$ límites y una gran cantidad de información a partir de la definición obtiene untado. Podemos, por ejemplo, definir el espacio de fase de volumen de la microcanonical conjunto de tres maneras distintas. Primero es
$$\Omega_{sharp} = \int_{\sum E = U} d \mu$$
Donde $\mu$ es algún tipo de medida en el espacio de estados. O podemos poner
$$\Omega_{non-sharp} = \int_{\sum E \in (U-\varepsilon,U)} d \mu$$
o incluso
$$\Omega_{nobody \, cares} = \int_{\sum E < U} d \mu$$
Cualquiera de ellos va a trabajar para $S = k_B \log \Omega$ en el mencionado límite (el límite dará el mismo $S$). Pero esto es más que un vestigio de la ampliación de los límites - el físicamente plausible es $\Omega_{sharp}$.
La cuestión mucho más importante es contar el número de estados que corresponda, la transición de estados discretos continuos queridos y por qué se les debería considerar "democrática". Esta sería una muy larga discusión que involucra ergodicity y así sucesivamente.
Para ergodic sistemas Hamiltonianos, la probabilidad de medida es sin duda proporcional a $d^n x d^np$ donde $n$ es el número de grados de libertad. A partir de la mecánica cuántica sabemos, que la "democracia" factor de discreto a continuo de los estados hace que esta medida $d^n x d^np/h$ $h$ la constante de Planck. (Sólo los pesos relativos de importancia, ya que normalicemos de todos modos.)
La conclusión es que los procedimientos de la física estadística, para un sistema dado, nos puede dar la entropía de forma inequívoca (hasta un aditivo constante que representa la libertad de estado para la normalización).
De la mano waivy conclusión
Así que siempre hay una entropía para cada situación y sabemos cómo derivar. El truco es solo para especificar que los títulos son "gratis" o llegar aleatorizados en una complicada interacción y a su vez en las estadísticas.
Pero hay algunas lagunas. Vemos que la justificación de todo el procedimiento (la "democratización" de los estados) se basa en la formulación Hamiltoniana y básicamente también de cuantización. Pero sabemos que la cuantificación es más un arte que una ciencia y el procedimiento estadístico se puede ejecutar en problemas similares como la cuantización. Nosotros siempre estamos seguros de lo que los parámetros macroscópicos de un sistema? ¿Cómo podemos describir la situación cuando observamos el microestado directamente? ¿Cuál sería la entropía de un espacio-tiempo relativista? Lo que sería el "activado" grados de libertad? Etc. Pero esta es una pregunta para el "arte de la física".
Nota adicional: "el Arte de la física" - modelización y confirmando
Un breve comentario sobre "el arte de la física". Como con cualquier físicas de los modelos y aproximaciones, existen tres criterios:
- Fundación en (más) física elemental
- La auto-consistencia de los resultados con la asunción
- La verificación empírica
Digamos que tenemos un sistema abierto $\Xi$ con un canal de entrada de partículas. Sin embargo, sólo sabemos cómo calcular los parámetros relevantes para la alimentación para el pequeño número de densidades en $\Xi$, porque entonces podemos utilizar una de un modelo de partícula de entrada y salida desde el sistema. La de un modelo de partícula sería el punto 1. - fundación de la física se consideran fundamentales. Por lo tanto suponer la baja densidad del número y del cálculo de las estadísticas del sistema.
Pero aquí es donde el teórico no debe pararse, el último paso es comprobar si la densidad es lo suficientemente bajo bajo cualquier elección de parámetros e identificar estas regiones en el espacio de parámetros - este es el punto 2. Sin embargo, esta es una muy primitiva concepción. Para un modelo serio, el teórico debe, al menos, comprobar si dos y más de partículas de los modelos de entrada no pueden de repente asumir incluso a bajas densidades e investigar bajo qué condiciones no. Esto es 1. mezclar con 2.
Sin embargo, también hay 3. - la verificación empírica. Sería muy ingenuo pensar que el teórico es capaz de anticipar todos los posibles efectos. De hecho, Einstein papers son bien conocidos que acaba de disparar un modelo sin mucho matemático de los debates de la olvidada efectos, y dar predicciones experimentales de inmediato. A veces, la intuición reglas (a veces no).
En el caso de la entropía, esto se lograría mediante la medición de la respuesta de calor del sistema. No sólo capacidades de calor en el formulario
$$C_{...} \sim \left(\frac{\partial S}{\partial T}\right)_{| ...=const.} $$
pero también un montón de otras coeficiente de respuesta que implican la temperatura especificados por ejemplo, por las relaciones de Maxwell.
Así que la respuesta sería: Si un bien desarrollado el modelo de predicción cuantitativa de la entropía existe y es confirmado por pruebas exhaustivas, la entropía califica como la única entropía del sistema.
Nota adicional: se Observó condiciones matemáticas
Digamos que nuestra la física, la motivación es primordial. A continuación, el más fuerte de lo que podemos decir es lo siguiente:
- La entropía es una función con valores de todo el conjunto de parámetros macroscópicos. (I. e. si es que no también podría ser debido a que la lista de parámetros no es completa.)
- La entropía tiene un número finito de diferencia entre cualquier dos puntos en el macro espacio de parámetros. I. e. $|\Delta S|<\infty$.
- La entropía es homogénea en los parámetros definidos por criterios como "extensa". I. e. para un completo conjunto de extensas parámetro $A_i$ tenemos $S(\lambda A_1, ...,\lambda A_n, ...) = \lambda S(A_1,...,A_n,...), \forall \lambda <0$.
En las transiciones de fase tan común como la congelación/fusión de la entropía es incluso discontinuo, por lo tanto el criterio. (Pero esto sólo ocurre en el $N \to \infty$ límite como se discutió por ejemplo, por Kardar en sus notas.) Físicamente somos capaces de medir sólo$\Delta S$, por lo que un requisito estricto de $dS$ es tanto redundante y que es imposible para algunos muy comunes de los sistemas.
Es importante que el "extensividad" es decir "tomar otra copia del sistema" - los parámetros que se doble por esta operación son extensas, pero lo es también el calor almacenado en el nuevo "doble" del sistema. Tomando toda la extensa parámetros y multiplicando por $\lambda$, significa "tomar $\lambda$ copias del sistema". Todo esto se basa en gran medida en el hecho de que somos capaces de muy claramente identificar la operación física de "tomar otra copia del sistema".
Hay casos como el agujero Negro de la termodinámica , donde esa noción de falla. En cierto modo, todo el espacio-tiempo, es el sistema termodinámico, por lo que "otra copia del sistema" es difícil de precisar. (Más técnicamente, las fórmulas son aislados de los agujeros negro y no hay manera de ver en pantalla la gravedad de otro modo que por la distancia infinita.) Podría parecer que el horizonte de la superficie de $A$ sería una extensa parámetro, pero en realidad crece como $\sim M^2$ - no podemos simplemente decir "el doble de la masa", porque eso no iba a funcionar.