Supongamos que tienes un cubo de Rubik que está hecho de un pequeño número de átomos a baja temperatura, de modo que puedes hacer movimientos sin ninguna disipación por fricción, y supongamos que el cubo se inicializa con uno aleatorio de sus $\sim 2^{65}$ posibles estados. Ahora bien, si quieres resolver este cubo tendrás que medir su estado. En principio se puede hacer esto sin disipar ninguna energía. Una vez que conozcas los movimientos que tienes que hacer para resolver el cubo, éstos también se pueden hacer sin disipar ninguna energía.
Así que ahora decides construir una máquina que resuelva el cubo sin disipar ninguna energía. Primero mide el estado y lo almacena en alguna memoria digital. Luego calcula los movimientos necesarios para resolver el cubo a partir de esta posición. (En principio, tampoco es necesario que genere calor). Luego realiza esos movimientos, resolviendo el cubo.
En principio, ninguno de estos pasos tiene que desprender calor, pero tu máquina termina en un estado diferente al que empieza. Al final del proceso, el estado de la máquina se ha aleatorizado en 65 bits, porque todavía contiene la información sobre el estado inicial del cubo. Si quieres reiniciar la máquina para que pueda resolver otro cubo, tendrás que restablecer esos bits de estado a sus condiciones iniciales, y eso es lo que tiene que disipar la energía según el principio de Landauer.
Al final la respuesta es simplemente que tienes que pagar un coste de entropía para borrar información en todos los casos en los que realmente necesitas borrar esa información. Si sólo quieres resolver un número finito de cubos, puedes hacer que la memoria sea lo suficientemente grande como para almacenar toda la información resultante, por lo que no hay necesidad de borrarla, y no es necesario generar calor. Pero si quieres construir una máquina de tamaño finito que pueda seguir resolviendo cubos indefinidamente, entonces será necesario verter entropía en el entorno.
Este es también el caso del demonio de Maxwell: si se permite que el demonio tenga una memoria infinita, todo inicializado a un estado conocido, entonces no necesita disipar nunca ninguna energía. Pero darle una memoria infinita es prácticamente lo mismo que darle una fuente de energía infinita; es capaz de reducir indefinidamente la entropía termodinámica de su entorno sólo aumentando indefinidamente la entropía de la información de su propio estado interno.
5 votos
No me convence tu afirmación de que un cubo resuelto tiene menos información. Sólo necesitas identificar la posición de un subconjunto de cubelets para identificar de forma única la configuración del cubo (porque, por ejemplo, una esquina retorcida obliga a una segunda esquina a estar también retorcida). No sabes que un cubo está resuelto hasta que has verificado que cada cubelet está en una posición válida, así que nunca cambias la entropía del cubo, sólo si la configuración está en un estado estéticamente "agradable" o no.
7 votos
@CarlWitthoft Como siempre, la cantidad de información asignada a un conjunto depende del observador. Desde el punto de vista de un observador que sabe (y de hecho, confía) que el cubo se resuelve después de la máquina, el estado anterior a su resolución tiene mayor entropía. Desde el punto de vista de un observador que no conoce nada más que las reglas de cómo puede moverse el cubo de Rubik, estoy de acuerdo contigo en que la entropía es la misma antes o después.
0 votos
También soy escéptico ante la afirmación de que un cubo resuelto contiene menos información sólo porque parece "correcto" por convención. Además, la solución no es única. Si añades marcas de orientación en las caras, verás que hay más que una configuración "resuelta" para un cubo de Rubik convencional.
2 votos
@200_successes - Incluso si se añaden marcas de orientación, sigue siendo cierto que si se cuenta el número de arreglos posibles de cuadrados de colores y marcas de orientación, el número total de arreglos que se calificarían como un cubo "resuelto" es mucho menor que el número de todos los arreglos posibles no resueltos (o todos los arreglos no resueltos que serían alcanzables por alguna secuencia de movimientos de un cubo recién fabricado en un estado resuelto, ya que podemos asumir que un arreglo inicial "aleatorio" fue creado barajando al azar un cubo recién fabricado).
3 votos
Y, por supuesto, es una mera cuestión de convención qué arreglos etiquetamos como "resueltos", pero la cuestión es sólo que si nosotros diseñar una máquina que tome un cubo en un estado inicial arbitrario y lo ponga siempre en uno de esos estados que hemos etiquetado arbitrariamente como "resuelto", entonces esta máquina está llevando el cubo desde un gran número de posibles macroestados iniciales del cubo a un número menor de macroestados finales del cubo, por lo que para que el volumen del espacio de fase se conserve, el entorno tiene que terminar en un macroestado con más microestados de los que había en su macroestado inicial (ver mis comentarios a Nathaniel).