16 votos

¿Cuál es la relación entre la distribución de Boltzmann y la teoría de la información?

Estoy leyendo un papel en máquinas de Boltzmann (un tipo de red neuronal en el Aprendizaje de Máquina), y menciona que "La distribución de Boltzmann tiene algunas hermosas propiedades matemáticas y está íntimamente relacionada con la teoría de la información."

¿Cuál es la naturaleza de esta relación (entre la distribución de Boltzmann y la teoría de la información), y ¿cuáles son estas "hermosas propiedades matemáticas"?

Alto nivel de respuestas están bien (tal vez incluso preferible, ya que no sé mucho acerca de la física estadística, aunque sí tengo algunos antecedentes en la teoría de la información; pero si es difícil dar un panorama de alto nivel, explicaciones técnicas también son excelentes).

4voto

Eran Medan Puntos 193

Creo que si quieres una buena introducción para el enlace entre Boltzman de la entropía y la teoría de la información, las obras de E. T. Jaynes son un buen comienzo. La clave para entender el vínculo es su Principio de Máxima Entropía.

He aquí un clásico de papel por Jaynes acerca de la teoría de la información y de la mecánica estadística.

2voto

FasterEd Puntos 31

En tanto la teoría de la información y de la física es fundamental cantidad llamada entropía asociada con cada medida. Por el bien de la simplicidad, me deja suponer que el número de eventos posibles es finito, así que no tengo que entrar en tecnicismos de la teoría de la medida. En este caso se puede describir la probabilidad de medir a través de una función que asigna a un resultado número $n$ probabilidad de $p_n$ (por ejemplo, por los posibles resultados de un laminado de morir tendrías $p_n = 1/6$$1 \leq n \leq 6$).

A esa medida se asigna la entropía $$S = - \sum_n p_n \log p_n$$ Para obtener un sentido intuitivo de esta cantidad, considerar algunas medidas simples. En el caso de los determinista del proceso ($p_1 = 1$$p_n = 0$ lo contrario), llegamos a la $S = - 1 \log 1 = 0$. Para el morir obtenemos $S = - 6 {1 \over 6} \log {1 \over 6} = \log 6$. Trate de jugar con algunos de los más distribuciones, pero la línea de fondo es que la entropía mide la incertidumbre en la distribución: es cero cuando estamos seguros y es máxima cuando no tenemos ni idea.

La razón de esto es importante en la física es que es la segunda ley de la termodinámica , que afirma que la entropía de cualquier sistema cerrado no puede disminuir. Es una de las más fundamentales leyes de nuestro mundo y dice básicamente que ininterrumpida huevos tienden a romperse (y los huevos rotos no tienden a arreglar ellos mismos) y el desorden en su habitación no disminuirá por su propia cuenta.

Otra manera de expresar lo mismo es que los sistemas de la izquierda en su propio evolucionar hacia un cierto equilibrio, que es un estado de máxima entropía, y luego se quedan allí. Lo que esto significa es que obtenemos un variacional princpiple: la medida que describe un sistema físico es tal que su entropía es máxima. Puedes comprobar por ti mismo que si no hay restricciones en el sistema, a continuación, un maximizer en $n$ resultados está dado por $p_n = 1/n$ (es decir, la predicción de un resultado de una tirada de dados tiene el máximo de la entropía; esto es precisamente porque tenemos a priori ninguna idea de lo que el resultado vamos a obtener).

Por otro lado, no son las limitaciones en los sistemas físicos. El fundamental es el de la energía. Para un sistema cerrado su energía se conserva. Ahora, en un mundo real, los sistemas con los que tratamos están rara vez cerrado. Por lo general son con el contacto con su entorno que no nos interesa. Así que tenemos un nuevo conjunto de problemas sobre nosotros: determinar una distribución de probabilidad sobre un sistema en equilibrio con su medio ambiente, si la energía total $E$ se conserva. Resulta que (¡sorpresa!) esta es precisamente la distribución de Boltzmann $p_n = {1 \over Z} \exp\left(-{E_n \over k_B T}\right)$, que se caracteriza por la temperatura, $T$ derivadas de la restricción en el problema variacional y se regula por la función de partición $Z(T) = \sum_n \exp\left({E_n \over k_B T}\right)$. La última constante $k_B$ está allí sólo para hacer que las unidades a la derecha, así que no te preocupes.

Como por las hermosas propiedades de la distribución de Boltzmann, es difícil saber por dónde empezar. Para una cosa, se puede obtener mucha información de la función de partición $Z$. Pero primero vamos a estar de acuerdo para utilizar la inversa de la temperatura de $\beta \equiv {1 \over k_B T}$ que es una manera más natural de la variable. Entonces tenemos, por ejemplo, $$ -{\partial \ln Z \over \partial \beta} = \sum_n E_n p_n = \left< E \right>$$ que es, precisamente, un promedio de energía del sistema. Podemos igualmente calcular otras magnitudes físicas.

Hay mucho más que decir, especialmente en relación con las transiciones de fase (que se producen cuando la solución del problema variacional no es el único), pero espero que esto va a satisfacer, por ahora.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X