En primer lugar, hay que entender que Rudolf Clausius elaboró sus ideas sobre la entropía para dar cuenta de las pérdidas de energía que se producían en la aplicación práctica de la máquina de vapor. En aquel momento no tenía ninguna capacidad real para explicar o calcular la entropía, salvo para mostrar cómo cambiaba. Por eso nos quedamos con mucha teoría en la que miramos los deltas, el cálculo era la única maquinaria matemática para desarrollar la teoría.
Ludwig Boltzmann fue el primero en dar a la entropía una base firme más allá de los simples deltas mediante el desarrollo de la mecánica estadística. Esencialmente, fue el primero en comprender realmente el concepto de microestado, que era un vector en un espacio multidimensional (por ejemplo, uno con dimensiones potencialmente infinitas) que codificaba toda la información de posición y momento de las partículas compuestas subyacentes. Dado que la información real sobre esas partículas era desconocida, el microestado real podía ser uno de los muchos vectores potenciales. La entropía es simplemente una estimación del número de posibles vectores que realmente podrían codificar la información sobre las posiciones y los momentos de las partículas (recordemos que cada vector individual codifica por sí mismo la información sobre todas las partículas). En este sentido, la entropía es una medida de nuestra ignorancia (o falta de información útil).
Este último uso de la entropía para medir nuestro nivel de conocimiento es el que llevó a Claude Shannon a utilizar la maquinaria de la entropía en la mecánica estadística para desarrollar la teoría de la información. En ese marco, la entropía es una medida de las posibles permutaciones y combinaciones que puede adoptar una cadena de letras. Comprender la entropía de la información es muy importante para entender la eficacia de varios esquemas de encriptación.
En cuanto a la definición de la temperatura en términos de entropía. En general, se consideran medidas distintas pero relacionadas del macroestado de un sistema. Los diagramas de temperatura-entropía se utilizan para entender la transferencia de calor de un sistema. En la mecánica estadística, la función de partición se utiliza para codificar la relación entre la temperatura y la entropía.
Sitios web útiles
Este sitio web es muy útil; véase la ecuación 420, temp está incluida en la definición de beta. Este sitio web explica la definición de entropía de Rudolf Clausius. Este sitio web habla sobre Claude Shannon y sus contribuciones a la teoría de la información. Este sitio web explica la historia de la entropía y algunas de las diferentes definiciones. Este sitio web habla de la vida de Ludwig Boltzmann y de la definición de entropía. Este sitio web explica aún más la relación entre la temperatura y la entropía.