Estoy tratando de entender la conexión entre la entropía en Termodinámica vs entropía en la Teoría de la Información y creo que es una buena manera de aclarar/ilustrar sería encontrar una analogía de microstates y macrostates dentro de Shannon definición de la entropía. Si termodinámico de entropía se basa en la "ignorancia" de microstates dado un macrostate y la entropía de información se basa en la "ignorancia" de que el mensaje sea recibido en un canal dado, lo que correspondería a la micro y macrostates en este canal de comunicación? Sé que estos son términos que se definen en la termodinámica, pero dado que las ecuaciones son más o menos la misma, me parece que debe haber analogías en la teoría de la información y que podrían ser útiles para comparar estas dos definiciones, contextos de la entropía.
EDIT: Después de algunos seguir leyendo me ponga para arriba en la tabla siguiente, sin embargo no estoy seguro de si estoy haciendo lo correcto:
╔══════════════════════════╦═══════════════════════════╗ ║ TERMODINÁMICA ║ TEORÍA DE LA INFORMACIÓN ║ ╠══════════════════════════╬═══════════════════════════╣ ║ Espacio de la fase ║ Alfabeto (firmar) ║ ║ ║ + ocurrencia ║ ╠══════════════════════════╬═══════════════════════════╣ ║ Micro-estados: ║ Ocurrencia de signos recogidos ║ ║ ubicación de partículas ║ desde el alfabeto ║ ║ en el espacio de la fase ║ ║ ╠══════════════════════════╬═══════════════════════════╣ ║ Macro-estados: ║ distribución de Probabilidad ║ ║ Distribución de probabilidad ║ de símbolos para ser elegido ║ ║ de partículas que se encuentran ║ desde el alfabeto ║ ║ en el recipiente B ║ (o producirse) ║ ╠══════════════════════════╬═══════════════════════════╣ ║ Bin en la distribución: ║ Bin en la distribución: ║ ║ Cuantizado del espacio de la fase ║ Símbolo en el alfabeto ║ ║ ubicación ║ ║ ╚══════════════════════════╩═══════════════════════════╝