16 votos

Lo MCMC algoritmos y técnicas que se utilizan para el discretos parámetros?

Sé una buena cantidad sobre el ajuste continuo de los parámetros particularmente gradiente basado en los métodos, pero no mucho acerca de la guarnición discretos parámetros.

Lo que comúnmente se utilizan algoritmos MCMC/técnicas para el ajuste de parámetros discretos? Existen algoritmos que son bastante generales y bastante potente? Existen algoritmos que lidiar con la maldición de la dimensionalidad bien? Por ejemplo, yo diría que Hamiltonianos MCMC es general, potente y funciona bien.

Muestreo de una arbitraria distribución discreta parece más difícil que el muestreo de una distribución continua, pero tengo curiosidad de saber cuál es el estado del arte.

Edit: JMS me preguntó a elaborar.

No tengo aplicaciones específicas en mente, pero aquí están algunos de los tipos de modelos que me estoy imaginando:

  • Modelo de selección entre varios tipos de continuo de los modelos de regresión. Tiene un discreto "modelo único" de parámetro
  • Un modelo continuo, donde cada observación tiene una posibilidad de ser un "outlier" y dibujado de una forma mucho más dispersa distribución. Supongo que esto es un modelo de mezcla.

Yo esperaría que muchos de los modelos que incluyen tanto los continuos y discretos parámetros.

16voto

Shawn Puntos 8120

Así que la respuesta simple es sí: Metropolis-Hastings y su caso especial de muestreo de Gibbs :) General y potente; si es o no escalas depende del problema en cuestión.

No estoy seguro de por qué usted piensa que el muestreo de una arbitraria distribución discreta es más difícil que una arbitraria distribución continua. Si se puede calcular la distribución discreta y el espacio muestral no es enorme, entonces es mucho, mucho más fácil (a menos que la distribución continua es estándar, tal vez). Calcular la probabilidad de $f(k)$ para cada categoría, luego normalizar para obtener las probabilidades de $P(\tilde k = k) = f(k)/\sum f(k)$ y el uso de la inversa de la transformación de muestreo (imposición de un orden arbitrario en $k$).

Tienes un modelo en particular en mente? Hay todo tipo de MCMC enfoques a la colocación de la mezcla de modelos, por ejemplo, donde el componente latente, las asignaciones de parámetros discretos. Estos van desde muy simples (Gibbs) a bastante complejo.

Cómo de grande es el espacio de parámetros? Es potencialmente enorme (por ejemplo, en el modelo de mezcla de caso, es N por el número de componentes de la mezcla)? Puede que usted no necesita nada más que un muestreador de Gibbs, desde conjugacy ya no es un problema (usted puede conseguir la normalización de la constante directamente, por lo que usted puede calcular el total condicionales). De hecho griddy Gibbs solía ser popular para estos casos, donde un continuo antes se discretiza a la facilidad de cálculo.

Creo que no hay una "mejor" para todos los problemas de tener un espacio de parámetros discretos más de lo que hay para el caso continuo. Pero si nos dicen más acerca de los modelos usted está interesado en, tal vez, podemos hacer algunas recomendaciones.

Edit: OK, me puede dar un poco más de información en re: ejemplos.

Su primer ejemplo tiene bastante larga la historia, como se podría imaginar. Un reciente-ish de revisión se encuentra en [1], ver también [2]. Voy a tratar de dar algunos detalles aquí: Un ejemplo relevante es la búsqueda estocástica de selección de variables. La formulación inicial era utilizar absolutamente continua de los priores como $p(\beta)\sim \pi N(\beta; 0, \tau) + (1-\pi) N(\beta, 0, 1000\tau)$. Que en realidad se convierte en trabajo mal con respecto a los priores como $p(\beta)\sim \pi \delta_0 (\beta) + (1-\pi) N(\beta, 0, \tau)$ donde $\delta_0$ es un punto de masa en 0. Tenga en cuenta que encajan en su formulación original; un MCMC enfoque se suele proceder al aumentar el $\beta$ con un (discreto) modelo (indicador de decir $Z$). Esto es equivalente a un modelo de índice; si ha $Z_1\dots, Z_p$, entonces, evidentemente, usted puede reasignar $2^p$ configuraciones posibles de los números en $1:2^p$.

Entonces, ¿cómo puede usted mejorar la MCMC? En muchos de estos modelos se pueden tomar muestras de $p(Z, \beta|y)$ por la composición, es decir, utilizando ese $p(Z, \beta|y) = p(\beta | Y, Z)p(Z|Y)$. Bloquear actualizaciones como esta puede mejorar tremendamente la mezcla ya que la correlación entre el $Z$ $\beta$ es ahora irrelevante para el sampler

SSVS incorpora todo el espacio de modelo en una gran modelo. A menudo esto es fácil de implementar, pero da funciona mal. El salto Reversible de la MCMC es un tipo diferente de enfoque que permite a la dimensión del espacio de parámetros que varían de forma explícita; ver [3] para una revisión y algunas notas prácticas. Usted puede encontrar más notas detalladas sobre la aplicación de los diferentes modelos en la literatura, estoy seguro.

A veces, un completo MCMC enfoque no es factible; digamos que tienes una regresión lineal con $p=1000$ variables y estás utilizando un enfoque como el de SSVS. No puedes esperar para su sampler a converger; no hay tiempo suficiente o poder de cómputo para visitar todas aquellas configuraciones de modelo, y está especialmente manguera si algunas de las variables son incluso moderadamente correlacionados. Usted debe ser especialmente escéptico de que la gente tratando de estimar las cosas como variable de probabilidades de inclusión en de esta manera. Varios de búsqueda estocástica algoritmos que se usan en conjunción con MCMC se han propuesto para estos casos. Un ejemplo es BAS [4], mientras que otro se encuentra en [5] (Sylvia Richardson tiene otros trabajos relevantes); la mayoría de los demás, soy consciente de que estén orientadas hacia un modelo en particular.

Un enfoque diferente que está ganando en popularidad es el uso de absolutamente continua contracción de los priores que imitan el modelo promediado los resultados. Normalmente, estos son formulados como la escala de las mezclas de las normales. El Bayesiano lazo es un ejemplo, que es un caso especial de lo normal-gamma priores y un caso límite de la normal, exponencial, gamma-los priores. Otras opciones incluyen la herradura y la general de la clase de distribuciones normales con invertida beta priores de su varianza. Para más información sobre estas, te sugiero comenzar con [6], y caminando de regreso a través de las referencias (demasiados para mí replicar aquí :) )

Voy a agregar más acerca de las demás modelos más tarde si me da una oportunidad; el clásico de la referencia [7]. Son muy similares en espíritu a la contracción de los priores. Generalmente son muy fáciles de hacer, con muestreo de Gibbs.

Quizás no sea tan práctico como usted esperaba; de selección de modelo en particular, es un problema difícil y el más elaborado el modelo de la peor se pone. Bloque de actualización siempre que sea posible es la única pieza de consejos generales que tengo. Muestreo a partir de una mezcla de distribuciones que a menudo tienen el problema de que la pertenencia de los indicadores y parámetros de componente están altamente correlacionados. También no he tocado en la etiqueta de conmutación de problemas (o la falta de label switching); hay un poco de literatura, pero es un poco fuera de mi caseta de gobierno.

De todos modos, creo que es útil empezar con algunas de las referencias aquí, para conseguir una sensación para los diferentes modos en que los demás se acercan a problemas similares.

[1] Merlise y Clyde E. I. George. Incertidumbre Del Modelo Estadístico De La Ciencia 19 (2004): 81--94. http://www.isds.duke.edu/~clyde/papers/statsci.pdf

[2]http://www-personal.umich.edu/~bnyhan/montgomery-nyhan-bma.pdf

[3] Verde & Hastie salto Reversible de la MCMC (2009) http://www.stats.bris.ac.uk/~mapjg/papers/rjmcmc_20090613.pdf

[4] http://www.stat.duke.edu/~clyde/BAS/

[5] http://ba.stat.cmu.edu/journal/2010/vol05/issue03/bottolo.pdf

[6] http://www.uv.es/bernardo/Polson.pdf

[7] Mike West Outlier los modelos y antes de distribuciones en Bayesiano de regresión lineal (1984) JRSS-B

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X