Esta es una cuestión muy discutida en termodinámica.
La respuesta breve es que la 2ª ley de la termodinámica no implica que las bolas no puedan moverse entre los recipientes cuando se establece el equilibrio térmico (a alguna temperatura distinta de cero), ni tampoco descarta la posibilidad de que se produzcan fluctuaciones que muevan las bolas entre las cámaras temporalmente. La cuestión es, por tanto, cómo entender el concepto de entropía cuando tales fluctuaciones pueden tener lugar.
Considere un sistema aislado, por lo que tiene energía fija, volumen, número de partículas U,V,N . Supongamos que este sistema también tiene algún parámetro interno x . En su ejemplo x es el número de bolas en uno de los dos contenedores. Sea S(x;U,V,N) sea la entropía que tendría el sistema si x se vieron obligados a tomar algún valor en particular.
Un sistema de este tipo, en equilibrio térmico a una temperatura determinada, presentará fluctuaciones térmicas tales que la probabilidad de que el sistema se encuentre, en cualquier momento, en un estado cuya entropía sea S(x;U,V,N) si x se limitaron viene dado por P \propto e^{S(x;U,V,N)/ k_{\rm B}}
Hay algún valor particular x_0 en el que este S se maximiza para un determinado U,V,N . Así que ese es el valor más probable de x . Llamémoslo x_0 . Sería N/2 en su ejemplo.
Ahora bien, como bien señala la pregunta, durante las fluctuaciones S(x;U,V,N) alcanza valores inferiores a S(x_0;U,V,N) Y la pregunta es si esto no rompe la segunda ley. La confusión ha surgido debido a dos usos diferentes de la palabra "entropía". La entropía del sistema considerado--el sistema sin restricción de x ---es S(U,V,N) \simeq S(x_0; U,V,N). donde la cantidad de la izquierda es la entropía para el sistema sin restricción en x . Esto se aproxima mucho por S(x_0; U,V,N) en el límite de los grandes sistemas. S(x_0; U,V,N) es la entropía del mayor conjunto de microestados de la colección de los que contribuyen a S(U,V,N) y este conjunto más grande contribuye a casi todo el total. Este S(U,V,N) es la cantidad de la que se ocupa la segunda ley.
La cantidad S(x \ne x_0; U,V,N) no es la entropía del sistema . Es lo que la entropía del sistema sería si x también estaban limitados y tenían un valor determinado.
Durante las fluctuaciones térmicas el sistema explora un rango de estados con diferentes valores del parámetro x y estos estados pueden ser macroscópicamente diferentes en el sentido de la mecánica estadística. Esto hace pensar que el sistema se mueve por el espacio de estados macroscópico, con la entropía subiendo y bajando en consecuencia, pero eso sería un error. Hay que acostumbrarse a que tales fluctuaciones son un aspecto intrínseco de la situación de equilibrio térmico. El propio concepto de "equilibrio térmico" debe entenderse como algo que abarca esta gama de estados. En este sentido, debemos atribuir el término "entropía de equilibrio" no a S(x \ne x_0; U,V,N) sino a S(x_0; U,V,N) . Es esta segunda entropía la que la segunda ley dice que no puede caer en un sistema aislado.
Para demostrar que la 2ª ley se cumple en estos casos, se pueden examinar dispositivos como el trinquete de Feynman-Smoluchowski, que intentan aprovechar las fluctuaciones térmicas para extraer trabajo del calor a una temperatura. Estos dispositivos sólo obtienen trabajo cuando hay una diferencia de temperatura e implican una pérdida de calor exactamente como exige la 2ª ley.
[Todo lo anterior ha supuesto condiciones hacia el límite termodinámico, donde la distinción entre valor medio y valor máximo puede despreciarse, y las funciones de distribución de la probabilidad pueden tomarse como normales (gaussianas). Una referencia para más información es mi libro de termodinámica, sección 27.1.1. Pippard también tiene observaciones interesantes].