14 votos

Un ejemplo práctico de MCMC

Estaba repasando algunas conferencias relacionadas con MCMC. Sin embargo, no encuentro un buen ejemplo de cómo se utiliza. ¿Puede alguien darme un ejemplo concreto? Lo único que veo es que ejecutan una cadena de Markov y dicen que su distribución estacionaria es la distribución deseada.

Quiero un buen ejemplo en el que la distribución deseada sea difícil de muestrear. Así que creamos una cadena de Markov. Quiero saber cómo seleccionar la matriz de transición para que su distribución estacionaria, de la cadena de Markov es la distribución objetivo Gracias

3voto

kalimurugan Puntos 1

Creo que es mejor dejar esas optimizaciones al compilador. ¿O tienes pruebas de que el compilador no puede hacer justicia a tus fórmulas?

2voto

Benjamin Ng Puntos 1

Creo que el mejor ejemplo que puedo dar es este:

Un ejemplo de Markov Chain Monte Carlo por Murali Haran

Que incluye algún código útil en R.

Creo que podría reproducir el artículo aquí, pero no tiene sentido.

2voto

Antoni Parellada Puntos 2762

Hay muchos pasos:

Paso 1, seleccione un estado $\Psi$ .

Paso 2, preparar muchos sistemas en el mismo estado $\Psi$

Paso 3, seleccione dos operadores A y B

Paso 4a, para algunos de los sistemas preparados en el estado $\Psi$ , medida A

Paso 4b, para algunos de los sistemas preparados en el estado $\Psi$ , medida B

Ahora bien, si se analizan los resultados, suponiendo mediciones fuertes (no débiles), entonces cada vez que se mide A, se obtiene un valor propio de A, y cada vez que se mide B se obtiene un valor propio de B. Cada valor propio tiene una probabilidad (que es igual a la relación de la norma cuadrada de la proyección sobre el espacio propio dividida por la norma cuadrada antes de proyectarse sobre el espacio propio). Así que sus valores propios de A provienen de una distribución de probabilidad que suele tener una media $\langle A\rangle=\langle \Psi|A|\Psi\rangle $ y una desviación estándar $\Delta A=\sqrt{\langle \Psi|\left(A^2-\langle \Psi|A|\Psi\rangle^2\right)|\Psi\rangle}$ . Y sus valores propios de B provienen de una distribución de probabilidad que suele tener una media $\langle B\rangle=\langle \Psi|B|\Psi\rangle $ y una desviación estándar $\Delta B=\sqrt{\langle \Psi|\left(B^2-\langle \Psi|B|\Psi\rangle^2\right)|\Psi\rangle}$ . Nunca se obtienen esos datos de una medición, ni siquiera de un grupo entero, pero de los pasos 4a y 4b se obtiene una media y una desviación estándar de la muestra, y para una muestra grande es probable que se acerquen mucho a la media y a la desviación estándar teóricas.

El principio de incertidumbre dice que en el paso 1 (cuando se selecciona $\Psi$ ) podría seleccionar un $\Psi$ que da una pequeña $\Delta A$ o un $\Psi$ que da una pequeña $\Delta B$ (de hecho si $\Psi$ es un estado propio de A, entonces $\Delta A=0$ , lo mismo para $B$ ). Sin embargo, $$\Delta A \Delta B \geq \left|\frac{\langle AB-BA\rangle}{2i}\right|=\left|\frac{\langle\Psi| AB-BA |\Psi\rangle}{2i}\right|,$$

Así que, en particular, los operadores no conmutantes a menudo (es decir, si el valor de la expectativa de su conmutador no se desvanece) tienen un compromiso, si el estado en cuestión tiene una desviación estándar realmente baja para un operador, entonces el estado en cuestión debe tener una desviación estándar más alta para el otro.

Si los operadores conmutan, no sólo no hay un límite conjunto a lo bajo que pueden llegar las desviaciones estándar, sino que la medición de la otra variable te mantiene en el mismo eigespacio del otro operador. Sin embargo, esto es un hecho completamente diferente, ya que el principio de incertidumbre trata de las desviaciones estándar de dos distribuciones de probabilidad para dos observables aplicadas a un mismo estado, y por lo tanto se aplica aproximadamente a las desviaciones estándar de la muestra generadas a partir de estados idénticamente preparados.

Si tiene un sistema preparado en el estado $\Psi$ y se mide A en él, entonces generalmente hay que utilizar un sistema diferente también preparado en $\Psi$ para medir B. Esto se debe a que cuando se mide A en un sistema se proyecta el estado en un eigespacio de A, lo que generalmente cambia el estado. Y como la distribución de probabilidad para B se basa en el estado, ahora que tienes un estado diferente tendrás una distribución de probabilidad diferente para B. No puedes averiguar $\Delta B=\sqrt{\langle \Psi|\left(B^2-\langle \Psi|B|\Psi\rangle^2\right)|\Psi\rangle}$ si no tienes $\Psi$ y sólo tienen $\Psi$ proyectada sobre un eigespacio de A.

1voto

Bou Puntos 1859

Este vídeo de Youtube es una visualización muy bonita de un problema sencillo que se resuelve utilizando MCMC.

La distribución de interés es la distribución posterior sobre las posibles pendientes e interceptos en una regresión lineal (panel superior derecho). Algunas combinaciones de pendientes e interceptos son muy probables (es decir, tienen una alta probabilidad de producir los puntos de datos observados y son consistentes con nuestra a priori expectativas), por lo que deben ser muestreados con frecuencia. Otras combinaciones son improbables (por ejemplo, si corresponden a una línea azul que no atraviesa la nube de puntos de datos), y deben muestrearse con menos frecuencia.

El gran panel de la parte inferior izquierda muestra el camino que sigue la cadena de Markov a través de un espacio bidimensional de pendientes e intercepciones. Los histogramas muestran resúmenes unidimensionales del progreso de la cadena hasta el momento. Una vez que la cadena ha recorrido el tiempo suficiente, tenemos muy buenas estimaciones de las distribuciones para los posibles valores de la pendiente y el intercepto.

En este caso, MCMC es una exageración, pero hay algunos problemas en los que es difícil escribir una solución y tiene mucho sentido explorar las posibilidades con una cadena de Markov en lugar de intentar resolverlo directamente.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X