Esto vino a mi mente después de leer algunas de introducción a la máxima entropía distribuciones de probabilidad.
La independencia puede ser derivada a partir de los siguientes cuatro supuestos:
(1) promedio de impulso de las partículas en el interior de la caja se fija en 0
(2) la energía cinética media de las partículas en el interior de la caja se fija
(3) el gas distribución de la velocidad debe ser como máximo de entropía de la distribución de probabilidad en virtud de las anteriores dos restricciones (1) y (2).
(4) la energía cinética de una partícula puede ser expresado como $f(v_x) + f(v_y) + f(v_z)$ para algunos la función $f$. (no aplica para partículas relativistas)
(Esperemos que (2) y (3) son algo más plausible-en busca de la independencia. (2) parece estar relacionada con equipartition teorema o es suficiente decir que el promedio de la energía cinética se fija simplemente debido a la ley de los grandes números? Y (3) es sobre todo la afirmación de que no hay ninguna otra oculta las restricciones (aparte de (1) y (2) a ser descubierto.)
Para derivar la independencia, supongamos $p(v_x,v_y,v_z)$ es una función de densidad de probabilidad (en velocidad), que NO tienen independencia entre x, y, z componentes de la velocidad. Queremos comparar la entropía de $p$ a de $p'$ donde $p'$ se define como $p'(v_x, v_y, v_z) = p_1(v_x) p_2(v_y) p_3(v_z)$ donde $p_1$ es la distribución marginal de la componente x de la velocidad de $p$ y de manera similar para $p_2, p_3$. Si $p$ muestra el promedio de impulso de 0, y la energía cinética media de 1, entonces el mismo es cierto para $p'$. ($p'$ y $p$ tener el mismo promedio de la energía cinética se deriva de (4)). Pero es un resultado en la teoría de la información que $h(p) < h(p_1) + h(p_2) + h(p_3) = h(p')$ (donde $h(p)$ denota la entropía de $p$). Esto significa que $p$ NO puede ser como máximo de entropía de la distribución de probabilidad en virtud de las restricciones (1) y (2).