10 votos

La existencia de temperaturas negativas y la definición de la entropía

Cómo temperaturas negativas puede ser posible ha sido tratada en StackExchange antes (varias veces de hecho), pero a la luz de algunos de los recientes discusión académica, la mayoría de estas respuestas parecen ser posiblemente incorrecta o incompleta. La literatura que me refiero es Dunkel Y Hilbert, de la Naturaleza Física 10, 67 (2014) arXiv:1304.2066, donde, a mi entender, se muestra que las temperaturas negativas son un artefacto de la elección de una definición incorrecta de la entropía. El artículo de la Wikipedia sobre el asunto también ha sido modificado para reflejar esto.

Esto fue posteriormente cuestionada por igualmente conocidos científicos, en arXiv:1403.4299 donde estaba, entre otras cosas, señaló que este argumento es realmente décadas de antigüedad (citando Berdichevsky et al., Phys. Un Apo. 43, 2050 (1991)). Los autores originales rápidamente contrarrestado los argumentos formulados en el comentario, por lo que parece ser un tratamiento riguroso de la cuestión, arXiv:1403.6058. La primera arXiv comentario (arXiv:1403.4299) ha sido actualizado desde entonces y todavía se lee que "Obviamente severa puntos de desacuerdo que se quedan".

Lo que yo estoy pidiendo, entonces, es si alguien en StackExchange podría ser capaz de arrojar algo de luz sobre la cuestión de cómo puede haber un desacuerdo sobre algo que parece debe ser un hecho matemático. Yo también estaría interesado en saber si el cambio de la definición de la entropía de la de Boltzmann a que, debido a Gibbs podría potencialmente cambiar cualquier otro resultado. Podría, por ejemplo, el Wang-Landau, el algoritmo de ser afectados ver que se hace uso de la densidad de estados y de que nunca se puede simular infinito de sistemas (aunque como yo lo entiendo, incluso en el contexto actual, con finito de escala debe ser capaz de obtener resultados coherentes)?

EDIT: Una actualización sobre el tema, para aquellos que podrían atención. arXiv:1407.4127 desafió el documento original y argumentó que las temperaturas negativas debería existir. Que basa sus afirmaciones en sus primeros experimentos en la Ciencia 339, 52 (2013). La respuesta se ofrece en arXiv:1408.5392. Más físicos mantener uniendo, argumentando para arXiv:1410.4619 y en contra de arXiv:1411.2425 temperaturas negativas.

6voto

Lo que yo estoy pidiendo, entonces, es si alguien en StackExchange podría ser capaz de arrojar algo de luz sobre la cuestión de cómo puede haber un desacuerdo sobre algo que parece debe ser un hecho matemático.

El principal desacuerdo parece ser que la definición de la palabra "entropía" en el contexto de la física estadística es "correcto". Definición es un acuerdo sobre la elección que parece preferible, pero no es necesario por los hechos. Diferentes personas respecto de diferentes cosas más útiles, por lo que no debería ser ninguna sorpresa que se llevaría al uso de diferentes definiciones en su trabajo. No debe haber ninguna objeción mientras esto lleva a algunos de los nuevos conocimientos que en un sentido independiente de la elección.

Lo sorprendente es que los autores de la reclamación por escrito que su definición es la definición de la entropía y proclamar su superioridad.

No he encontrado ningún argumento convincente en su papel de convencerme de que no hay ningún problema con la fórmula estándar $S = k_B\log \omega(U)$ para la entropía y que su fórmula $S' = k_B\log \Omega(U)$ debe reemplazarlo.

Las dos fórmulas llevar a casi el mismo valor de la entropía para macroscópicas de los sistemas, para los cuales el concepto de entropía fue originalmente diseñada. Esto es debido a que su diferencia es insignificante debido a la gran magnitud de la correspondiente número de estados. En consecuencia, las reglas estándar que utilizan la entropía conducen a las mismas conclusiones para este tipo de sistemas si se utiliza $S$ o $S'$.

Para "extraño" de los sistemas, con una constante o la disminución de la densidad de estados $\omega(U)$ como partícula en un cuadro 1D o 1D oscilador armónico, su definición, conduce a un valor muy diferente de la entropía para la energía dada $U$ y también a un valor diferente de la temperatura, ya que $\partial U/\partial S'|_{V=\text{const}} \neq \partial U/\partial S|_{V=\text{const}}$. Los autores dicen que la positividad de lo calculado la temperatura es una virtud de su entropía $S'$.

Pero tan extraño sistemas no puede estar en equilibrio termodinámico con los sistemas cuando tienen el mismo $\partial U/\partial S'|_{V=\text{const}}$. Por qué? Cuando ordinaria del sistema está conectado a tan extraño sistema, el más probable el resultado es que el extraño sistema te dará mucha energía para el sistema normal hasta que su energía disminuye a un valor en el que la densidad de estados es igual a la densidad de estados del sistema normal (o no es transferible energía a la izquierda). De acuerdo con el principio de máxima probabilidad, el promedio de la energía $U_1$ de el primer sistema en equilibrio es tal que el número de accesibilidad de estados para el sistema combinado es máxima. Nos deja denotar la energía total del primer sistema de $U_1$, del segundo sistema de $U_2$ y de la combinación de aislado de sistema de $U$ (constante). Si la densidad de estados es diferenciable, somos conducidos a la condición de $$ \frac{d}{dU_1}\left(\omega_1(U_1)\omega_2(U-U_1) \Delta U^2\right) = 0 $$ $$ \omega_{1}'(U_1)\omega_2(U_2) = \omega_{2}'(U_2)\omega_1(U_1) $$ $$ \frac{\omega_{1}'(U_1)}{\omega_1(U_1)} = \frac{\omega_{2}'(U_2)}{\omega_2(U_2)} $$

y esto implica la condición de

$$ \frac{\partial U_1}{\partial S_1} = \frac{\partial U_2}{\partial S_2}~~~(1) $$ donde$S_1 = k_B\log \omega_1(U_1)$$S_2=k_B\log \omega_2(U_2)$. El principio de máxima probabilidad de no llevar a la condición de

$$ \frac{\partial U_1}{\partial S'_1} = \frac{\partial U_2}{\partial S'_2}.~~~(2) $$ donde$S_1' = k_B\log \Omega_1(U_1)$$S_2' = k_B\log \Omega_2(U_2)$. Si (1) tiene, en la mayoría de los casos (2) no. Dado que en equilibrio termodinámico temperaturas son las mismas, la definición estadística de la temperatura es mejor dado por $\frac{\partial U}{\partial S}$, en lugar de por $\frac{\partial U}{\partial S'}$.

Extraños cuando el sistema está aislado y tiene una energía tal que la densidad de estados disminuye con la energía, la temperatura obtenida es negativa. Esto es así, ya que atribuyéndolo cualquier valor positivo de la temperatura sería un error: el sistema no estar en equilibrio con los sistemas (aquellos con una densidad de estados que aumenta con la energía) de temperatura positiva.

5voto

Nanite Puntos 1721

Tenemos una perfecta definición inequívoca de la temperatura para canónicas de los conjuntos, y esta temperatura puede ser negativo en el acotado a los sistemas de la energía. Este tipo de temperatura negativo es indiscutible, y algunos podrían argumentar que se ha realizado en el spin-la inversión de los experimentos.

El problema es que hay dos decente, pero imperfecto definiciones para la entropía de un microcanonical conjunto. Este conjunto es considerado por algunos* a ser útiles para describir algunas situaciones físicas.

Una definición (la superficie de la entropía/entropía de Boltzmann) es más popular, y puede ser elogiado por su intuición. La otra definición (volumen de entropía/entropía de Gibbs/Hertz entropía) es menos popular, y menos intuitiva, sin embargo matemáticamente hablando de sus propiedades son más cómodo y es más termodinámicamente precisa en algunas maneras. Cada uno de los rendimientos de una clara definición de la temperatura cuando se utiliza en la fórmula $T^{-1} = dS/dE$. Cuál es la correcta? La superficie de la entropía da a temperaturas negativas en muchos raro sistemas (y no sólo en delimitada sistemas de la energía), mientras que el volumen de la entropía nunca se da a temperaturas negativas.

Esta superficie/volumen argumento es de más de 100 años de edad, y nunca será resuelto. Esto es debido a que ni la definición es perfecta, así que es más una cuestión de gusto que usted utilice. Gibbs en su 1902 Principios Elementales de la Mecánica Estadística analizaron las ventajas y problemas de ambos enfoques, en profundidad. No estoy seguro de si alguna de la literatura, desde entonces, ha añadido nada de valor, además de la repetición.

Esencialmente, el problema es este: los Conjuntos que no son canónicamente distribuidos no son tan sencillas que podemos pretender que son de la termodinámica. Así pues, no debemos ser realmente tratando de nombre de una temperatura. Bueno, podemos ir adelante y hacerlo, y de hecho podemos nombrar "temperaturas" que trabajar en algunos aspectos. Sin embargo, estos "temperaturas" nunca va a vivir de acuerdo con todas las propiedades que podemos esperar de la termodinámica. Como un ejemplo concreto, que intuitivamente esperamos que si nos térmicamente conectar dos igual a la temperatura de los sistemas, a continuación, nada debe cambiar. Pero ni la superficie ni el volumen de "la temperatura" tienen esta propiedad!

*: En mi opinión, es cuestionable si el microcanonical conjunto describe cualquier situación física. Se dice a menudo que los sistemas aislados son descritos por microcanonical conjuntos, sin embargo, ser aislado no es suficiente. Microcanonical conjuntos también debe tener el total de energía que es exactamente lo que se conoce, y este no es el caso en cualquier experimento. En lugar de la extraña sistemas aislados discuten a menudo (como spin-inversión de experimentos) no son canónicos, ni microcanonical, pero algunos complicado bestia en el medio.

4voto

oldmankit Puntos 121

He contribuido a este problema con este arXiv:1411.2425 y trabajos anteriores. Insisto en que la entropía de Gibbs es "no definido" sino que se "construye".

Está construido sobre la expresión de fuerzas termodinámicas en el microcanonical conjunto, y está construido de tal manera que se reproduce siempre y exactamente. La construcción es realmente único. En consecuencia, si cualquier otra expresión que se emplea, por ejemplo, Boltzman, usted mis-calcular esas fuerzas termodinámicas, por ejemplo, la magnetización. El error en el que pudiera incurrir con la entropía de Boltzmann a veces puede ser muy grande, ver arXiv:1411.2425. Así que, en general, Boltzmann de la expresión no coincide con la termodinámica de la entropía. En consecuencia, sus derivados, generalmente no coincide con la inversa de la temperatura.

Eso es todo.

3voto

Simplemente la termodinámico de las cantidades utilizadas en el documento original no eran adecuadas para ese problema.

Ellos, en particular, calculado $T=\frac{\partial U}{\partial S}$ donde $ U$ es la energía interna y $S$ la entropía.

Sin embargo, una definición incorrecta de la entropía ha sido utilizado. Los matemáticos han demostrado que el uso de la entropía que estaba equivocado y que la correcta utilización de la entropía llevaría a finita de temperatura positivo.

Mi opinión es que en estos días la gente realmente les gusta usar engañosa terminología sólo porque se ve cool, y porque ayuda a vender su papel.

Además de temperatura negativo es intuitivamente mal como debe ser en una forma relacionada con el las excitaciones térmicas de un sistema. Así que mi opinión es que los autores no no sólo con las matemáticas, pero como físicos así como se utilizó una incorrecta definición matemática y que los resultados publicados que no tienen sentido físico.

Debo decir que me siento de la misma con respecto a que el artículo sobre el monopolo de Dirac.

PS

En apoyo de temperatura negativo echa un vistazo a estas euristic argumentos por Immanuel Bloch. Él admite que es sólo una buena opción, pero en cualquier caso Todavía está sin sentido para mí.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X