No soy un experto en ninguno de ellos, pero pensé en exponerlos de todos modos para ver qué opinaba la comunidad. Las correcciones son bienvenidas.
Un método cada vez más popular, que no es terriblemente sencillo de aplicar, se llama Monte Carlo hamiltoniano (o a veces el Monte Carlo híbrido). Utiliza un modelo físico con energía potencial y cinética para simular una bola rodando por el espacio de parámetros, como se describe en este documento por Radford Neal. El modelo físico requiere una buena cantidad de recursos computacionales, por lo que tiende a recibir muchas menos actualizaciones, pero éstas tienden a estar menos correlacionadas. HMC es el motor del nuevo STAN que se está desarrollando como una alternativa más eficiente y flexible a BUGS o JAGS para la modelización estadística.
También hay toda una serie de métodos que implican "calentar" la cadena de Markov, lo que puede considerarse como la introducción de ruido térmico en el modelo y el aumento de las posibilidades de muestreo de estados de baja probabilidad. A primera vista, parece una mala idea, ya que se quiere que el modelo muestre en proporción a la probabilidad posterior. Pero en realidad sólo se acaban utilizando los estados "calientes" para ayudar a que la cadena se mezcle mejor. Las muestras reales sólo se recogen cuando la cadena está a su temperatura "normal". Si lo haces correctamente, puedes utilizar las cadenas calentadas para encontrar modos a los que una cadena normal no podría llegar debido a los grandes valles de baja probabilidad que bloquean la transición de modo a modo. Algunos ejemplos de estos métodos son MCMC acoplado a Metrópolis , transiciones templadas , templado en paralelo y muestreo de importancia recocido .
Por último, puede utilizar Monte Carlo secuencial o filtrado de partículas cuando la tasa de rechazo sería tan alta que todos estos otros métodos fracasarían. Soy el que menos conoce esta familia de métodos, por lo que mi descripción puede ser incorrecta pero tengo entendido que funciona así. Empiezas ejecutando tu muestreador favorito, aunque las posibilidades de rechazo son esencialmente una. En lugar de rechazar todas las muestras, eliges las menos objetables e inicias nuevos muestreadores a partir de ellas, repitiendo el proceso hasta que encuentres algunas muestras que realmente puedas aceptar. A continuación, vuelva a corregir el hecho de que sus muestras no eran aleatorias, porque no inicializó sus muestreadores desde ubicaciones aleatorias.
Espero que esto ayude.
1 votos
¿Se refiere a la cadena de Markov Monte Carlo? Las mejoras de los libros de texto sobre simulaciones de Monte Carlo que se me ocurren implican un muestreo antitético y/o estratificado, así como un cuasi-Monte Carlo. Sin embargo, el hecho de que menciones sólo a Gibbs y a Metrópolis-Hastings es indicativo de la computación bayesiana.
0 votos
@StasK, Sí, me interesan principalmente los modelos bayesianos y los modelos de física estadística (que no es más que la inferencia bayesiana sobre distribuciones tipo gibbs p(x) = 1/Z exp(-E(x)/T) ). Perdón por no haberlo mencionado.
0 votos
Hay tantos que probablemente sea imposible enumerarlos todos aquí.
0 votos
@Procrastinator No las necesito todas. Sólo los más populares y básicos. El hecho de que haya tantos es precisamente lo que motiva mi pregunta. No consigo decidirme por un buen punto de partida para estudiar el tema porque es muy vasto y parece tener un montón de subramas especializadas. Sólo pido a los especialistas un punto de partida :)
3 votos
(+1) Vale, un bonito algoritmo adaptativo de propósito general publicado "recientemente" y ya implementado en R, Python y Matlab es el twalk . Funciona bien, pero siempre es una buena práctica volver a comprobarlo utilizando otro método. Por cierto, MH está implementado en el paquete R mcmc . Por supuesto, hay muchos otros, pero la mayoría de ellos no están implementados en este nivel de generalidad y/o son difíciles de implementar. Otra área popular hoy en día es el Monte Carlo secuencial. Espero que esto ayude.
2 votos
Es posible que ya lo sepas, pero el muestreo por tajadas es bastante fácil de implementar y evita algunos escollos del típico algoritmo de "paseo aleatorio" de Metropolis. Uno de los problemas de los algoritmos tradicionales de Metropolis es su comportamiento de paseo aleatorio: en lugar de moverse con determinación hacia los estados buenos, van dando tumbos, moviéndose lentamente hacia las zonas buenas. Esta es la motivación de los métodos que hacen uso de la información del gradiente, como el HMC, pero el muestreo por partes también entra en este campo y es más automático.
0 votos
El muestreo por cortes es muy bueno para los modelos de mecánica estadística en los que es fácil tomar muestras uniformes del conjunto de estados que tienen una energía determinada. Pero, como normalmente en esos modelos la energía es una función complicada de variables discretas, generalmente no es posible invertirlas.
1 votos
No sé casi nada de ABC, pero me gustaría que alguien me explicara un poco las diferencias entre los métodos ABC y MCMC...