La entropía tiene dos definiciones, que provienen de dos ramas diferentes de la ciencia: la termodinámica y la teoría de la información. Sin embargo, se cree que ambas coinciden. ¿Es cierto?
La entropía, vista desde la teoría de la información, mide nuestra ignorancia sobre un sistema. La entropía, vista desde la termodinámica, mide la cantidad de trabajo extraíble. Una es epistemológica, la otra es ontológica. Sin embargo, ambas pueden coincidir, si la entropía mide realmente la cantidad de trabajo extraíble, teniendo en cuenta los conocimientos de cada uno sobre el sistema.
Pero, ¿es esto cierto? ¿La entropía de Shannon calculada sobre la distribución de probabilidad de un sistema físico expresa la cantidad de trabajo que podemos obtener de él? ¿Cómo aumentan nuestros conocimientos la cantidad de trabajo extraíble? ¿Es el principio de Landauer lo suficientemente potente como para establecer la conexión?