¿Qué es la temperatura? Hay respuestas matemáticas muy formales a esta pregunta. Sin embargo, la mejor respuesta que he encontrado en mis seis años de educación en física fue en mi curso original de termodinámica en mi segundo año, en "Física Térmica", páginas 85-91 de Schroeder. Sin embargo, mi comprensión ha evolucionado con la exposición a la teoría de probabilidad e información.
La temperatura está definida inequívocamente como "cuánto cambia la entropía de un sistema cuando cambia la energía de ese sistema."
Por lo tanto, cualquier comprensión de la temperatura que se desee obtener está limitada fundamentalmente por la comprensión de lo que es la entropía. La entropía es una medida de cuánta información (en bits, ya que estamos en computadoras en este momento) se requiere saber sobre el estado de un sistema.
El estado de un sistema (realmente, estado cuántico) es todo lo que posiblemente se pueda conocer simultáneamente sobre un sistema. Una vez que se sabe todo lo que hay que saber sobre un sistema, se ha determinado su estado.
La entropía es equivalente al número esperado de preguntas afirmativas/negativas mínimamente requeridas para determinar el estado de un sistema. Por favor, tenga en cuenta la palabra "esperado" (que significa promedio), y la palabra "mínimamente" (que significa hacer las preguntas mejores posible).
Probablemente nunca hayas escuchado esta definición de entropía, pero esta definición es completamente correcta, excepto que en física multiplicamos este número por $k_b ln(2)$ (un número) meramente por razones históricas. Así que cada vez que leas entropía, deberías intentar pensar en número esperado de preguntas afirmativas/negativas. Si no sabes si una moneda está en cara o cruz, la entropía es 1 pregunta binaria: "¿Está la moneda en cara?".
Existe una ley simple que dice que el número esperado de preguntas afirmativas/negativas requeridas para determinar el estado de un sistema cerrado nunca puede disminuir. Esto se conoce como la 2ª Ley de la Termodinámica. Es una ley interesante. Y cuando la entropía se define como el número de preguntas esperadas, es una ley exacta que siempre se cumple. Incluso se cumple para el Demonio de Maxwell.
El número esperado de preguntas para determinar el estado de un sistema cerrado ciertamente puede aumentar. Y ciertamente lo hará, hasta alcanzar un límite. Un sistema que ha alcanzado este "límite de desconocimiento" ocupa cada estado posible con igual probabilidad, y llamo a este sistema ergódico. Esto siempre sucede si esperas el tiempo suficiente, gracias en mi opinión a las matemáticas de las cadenas de markov (cada sistema cerrado es necesariamente una cadena de markov irreducible y ergódica que se acerca a una distribución estacionaria). Esto se llama la hipótesis ergódica en física.
Considera dos sistemas ergódicos, uno de alta temperatura y uno de baja temperatura.
Cuando un sistema tiene alta temperatura, significa que pequeños cambios en la energía del sistema causan grandes cambios en la entropía del sistema (de hecho, esta es la definición de temperatura). Pensando en la entropía como el número esperado de preguntas afirmativas/negativas, esto significa que tendrás que hacer muchas más preguntas para determinar el estado del sistema si le añades un poco de energía.
Cuando un sistema tiene baja temperatura, significa que pequeños cambios en la energía del sistema no cambian mucho la entropía del sistema. No tendrás que hacer significativamente más preguntas para determinar el estado del sistema si tiene un poco más de energía.
Ahora considera el sistema combinado, cerrado del resto del universo. La 3ª Ley pone una restricción en el número esperado de preguntas afirmativas/negativas para determinar el estado del sistema combinado. Considera qué sucede si los sistemas pueden intercambiar energía (¡y solo energía!).
Si no se intercambia energía entre los sistemas de alta temperatura y baja temperatura, entonces el número esperado de preguntas requeridas para el sistema entero $N_{1+2}$ es simplemente la suma del número esperado de preguntas para cada subsistema: $N_{1+2} = N_1 + N_2$.
sin embargo, ¿qué pasa si los dos subsistemas pueden e intercambian energía? La 3ª Ley dice que, pase lo que pase, el número esperado de preguntas requeridas para determinar el estado del sistema combinado no puede disminuir.
Si sabes que fluyó más energía desde el sistema de alta temperatura al sistema de baja temperatura (lo cual ciertamente puede suceder, el flujo de la energía es aleatorio), sabes, a partir de la definición de temperatura, que el número de preguntas requeridas para determinar el estado del sistema combinado ha disminuido, en aparente violación de la 2ª Ley: $N_{1+2} < N_1 + N_2$. Sin embargo, este conocimiento sobre "flujo de energía hacia atrás" no se puede obtener sin hacer un cierto número de preguntas $N_q$ del sistema: la cantidad exacta requerida por la 2ª Ley $N_{1+2} \geq N_1+ N_2 + N_q$.
Por otro lado, si todo lo que sabes es que el intercambio de energía está ocurriendo en este sistema combinado, según la hipótesis ergódica el número esperado de preguntas que tendrás que hacer solo aumentará, acercándose rápidamente al límite ergódico. Esto requiere que la energía fluya en promedio (aleatoriamente) desde lo caliente a lo frío. Y el límite ergódico es cuando lo caliente y lo frío están a la misma temperatura
3 votos
La energía cinética promedio es proporcional a la temperatura para los gases ideales, pero esto no siempre es cierto y no es la definición fundamental de temperatura. Ver esta pregunta reciente aquí. En mi respuesta a ella, doy las definiciones "modernas", estadísticas y mecánicas, así como esbozo la definición original e ingeniosa de Carnot, según la cual la temperatura de un reservorio se define por la eficiencia de un motor de calor reversible ideal funcionando entre el reservorio en cuestión y un reservorio de escape "estándar", este último teniendo temperatura unitaria por definición.
0 votos
@WetSavannaAnimalakaRodVance ¿No podría considerarse esto como un duplicado de la pregunta que enlazaste?
1 votos
@valerio92 Es ciertamente bastante cercano. Supongo que esta pregunta está preguntando explícitamente por la relación entre la temperatura y la energía cinética media, lo cual la otra pregunta no pregunta exactamente. Sin embargo, la respuesta de Cort Amon a la otra pregunta brinda una maravillosa discusión sobre la relación entre el termómetro y la temperatura termodinámica.
0 votos
Aunque este comentario no responderá completamente tu pregunta, podría proporcionarte una nueva perspectiva sobre la temperatura. $\space \space \space \space \space \space \space \space \space $ La ley cero de la termodinámica define la temperatura. Digamos que hay 3 cuerpos A, B y C. Si no hay flujo de calor entre A y B, y entre B y C, entonces no habrá flujo de calor entre A y C. Estos cuerpos se dice que están en equilibrio térmico y la propiedad que es la misma para estos cuerpos se llama temperatura. La igualdad de temperatura es una condición necesaria y suficiente para el equilibrio térmico.
5 votos
Posible duplicado de ¿Cuál es la definición más fundamental de temperatura? Tu pregunta "¿por qué sucede que cuando colocamos un termómetro en un baño de agua..." me parece como una pregunta separada, lo que podría hacer que sea Demasiado amplia también.
1 votos
Me gustaría animarte a que leas esta otra publicación sobre temperatura, la cual explica la temperatura desde el punto de vista de la mecánica estadística.
5 votos
$$\frac{1}{T} = \frac{\partial S}{\partial U}.$$
0 votos
Mientras no haya una definición única para la entropía, probablemente no tendremos una definición única para la temperatura. (diferentes definiciones para la entropía tienen algunas diferencias en sus propios significados físicos)
0 votos
@Shing Quizás me esté perdiendo algo aquí... $$S = k_B \ln(\Omega)$$ es bastante estándar.
0 votos
@user121330 También existe la entropía de Gibbs. $$S=-\int \rho ln \rho $$
0 votos
@Shing De todas las entropías que podrías haber elegido, esas son formalmente equivalentes. Las otras tienen nombres de prefijo, y la Temperatura se define de manera diferente cuando es diferente.
0 votos
@user121330 Me perdí por completo tu comentario. Una diferencia (que noto) es: en todo momento, no hay absolutamente ninguna disminución de la entropía en la entropía de Gibbs. Y la entropía de Boltzmann puede disminuir por un tiempo muy muy corto, después de todo, la entropía de Boltzmann se trata solo de multiplicidades.