Sir James Jeans tiene una excelente respuesta, sin utilizar la palabra "orden" o "desorden". Considere un juego de cartas... ¿hay alguien más en este foro, aparte de mí, que todavía juegue al whist? Su ejemplo es el whist. Es mejor que use el póker.
Tienes la misma probabilidad de que te repartan cuatro ases y el rey de picas que de que te repartan cualquier otro especificado con precisión mano, por ejemplo, el dos de tréboles, el tres de diamantes, el cinco de corazones, el ocho de picas y el siete de picas. Casi sin valor.
Esto es el microestado. Un microestado es la mano especificada con precisión.
Un macroestado es la descripción útil, como en las reglas: dos parejas, cuatro del mismo palo, escalera real, color, escalera de color, sin valor.
Tienes una probabilidad mucho menor de que te repartan cuatro ases que de que te repartan una mano sin valor.
Un macroestado es lo único sobre lo que tiene sentido decir "ordenado" o "desordenado". El concepto de "orden" no está definido para un microestado. Un macroestado está muy ordenado o posee mucha información si su conocimiento de que está en ese macroestado implica un grado muy alto de especificidad sobre el posible microestado en el que podría estar. "Cuatro ases", como descripción, te dice mucho. "Un par", como descripción, le dice mucho menos. Así que el primero es un estado de baja entropía y el segundo es un estado de mayor entropía.
Un macroestado es una distribución de probabilidad en el conjunto de microestados. "Cuatro ases" dice que el microestado "as, dos, tres, cuatro, cinco, todas las picas" tiene probabilidad cero. La mayoría de los microestados tienen probabilidad cero, están excluidos de esta descripción. Pero "cuatro ases y rey de picas" tiene una probabilidad de 1/48, lo mismo que "cuatro ases y rey de corazones", etc. etc. hasta "cuatro ases y dos de tréboles". La fórmula de la entropía es entonces $-k \log \frac1{48}$ donde $k$ no es la constante de Boltzmann. Pero la entropía de "un par" es mucho mayor: pongamos que "W" es el número de manos diferentes especificadas con precisión que entran en la descripción de "un par". Entonces su entropía es $k \log W$ .
Jeans hace la analogía con poner una tetera de agua en el fuego. El fuego está más caliente que el agua. La energía (el calor) se transfiere del fuego al agua, y también del agua al fuego, por, supongamos, colisiones moleculares únicamente. Cuando decimos "tetera fría sobre fuego caliente" estamos describiendo un macroestado. Cuando decimos "el agua hierve" es otro macroestado. Cuando decimos "el fuego se calienta y el agua se congela" también estamos describiendo un posible macroestado que podría resultar. ¿Qué son las entropías? Son proporcionales al logaritmo del número de microestados que entran en estas tres descripciones. Ahora bien, por la distribución de energías de Maxwell de las moléculas, hay muchas moléculas de alta energía en el fuego que entran en contacto con moléculas de menor energía en el agua y transfieren energía a el agua. Hay muchos patrones de interacción especificados con precisión en el nivel molecular individual de transferencia de energía del fuego al agua, por lo que "hierve" tiene una gran entropía.
Pero hay algunas formas de congelar el agua: la distribución de Maxwell dice que algunas de las moléculas del fuego son efectivamente menos energéticas que la molécula media del agua. Es posible que sólo (o mayoritariamente) estos las moléculas son las que chocan con el agua y reciben energía del agua. Esto es una estricta analogía con el juego de cartas: hay muy pocos ases, pero es posible que te los repartan todos. Pero hay muchas menos formas de que esto ocurra, de que el agua se congele, que del proceso anterior de ebullición. Por tanto, este macroestado tiene menos entropía que el macroestado de "ebullición".
Este ejemplo muestra que para utilizar la definición de entropía hay que haber definido el conjunto completo de posibles microestados que se van a considerar como posibles, y hay que estudiar los macroestados que son conjuntos de estos microestados. Estos diferentes macroestados se pueden comparar en cuanto a sus entropías.
No se puede cambiar de repente a un partido de hockey y comparar la entropía de un pleno con la entropía de "los Leafs ganan". Si quieres hacer comparaciones como esa, tendrías que definir inicialmente un sistema global que contuviera ambos conjuntos de microestados, definir los macroestados, e incluso entonces las comparaciones de entropía serían meramente formalistas. Las leyes de la termodinámica sólo se aplican cuando existe una interacción entre todas las partes del sistema, de manera que cualquier componente del sistema tiene la posibilidad de intercambiar energía con cualquier otra parte del sistema. Dentro del tiempo previsto. También tuvimos que suponer que cada mano era igualmente probable, es decir, que Persi Diaconis no estaba repartiendo... algunos repartidores saben cómo hacer que algunas manos especificadas con precisión sean menos probables que otras.... sin estas dos suposiciones, no hay conexión entre la entropía termodinámica y la entropía informativa, y por tanto la Segunda Ley de la termodinámica no se aplicará a la entropía informativa.
TL;DR
Mejor que "más ordenado" sería pensar en "más especificidad". Hay menos formas de ordenar que todas las moléculas lentas estén en un cuerpo y todas las rápidas en el otro que de ordenar una mezcla aparentemente aleatoria, igual que hay menos formas de ordenar que yo consiga todos los ases, que de ordenar que cada jugador consiga un as.
Ver también ¿Realmente la entropía siempre aumenta (o permanece igual)? donde puse las palabras exactas de Sir James en extenso.