En la inferencia bayesiana, hay que determinar la distribución posterior de los parámetros a partir de la distribución a priori y la probabilidad de los datos. Como este cálculo puede no ser posible de forma analítica, pueden ser necesarios métodos de simulación.
En los algoritmos MCMC (Markov Chain Monte Carlo), se genera una cadena de Markov cuya distribución límite es la distribución posterior deseada. En la práctica, puede resultar difícil evaluar si se ha alcanzado la convergencia. Cuando se detiene una cadena de Markov en un paso finito, no se tienen realizaciones independientes, ya que cada punto generado depende de los anteriores. Lo que ocurre es que, a medida que la cadena avanza, dicha dependencia será cada vez menor, y en el infinito se obtendrían realizaciones independientes de la posterior.
Así, supongamos que hemos detenido la cadena de Markov en un paso finito, y que la muestra obtenida tiene todavía una autocorrelación significativa. No tenemos extracciones independientes de la distribución posterior. El adelgazamiento consiste en elegir puntos separados de la muestra, en cada $k$ -en el paso. A medida que vamos separando los puntos de la cadena de Markov, la dependencia se hace menor y conseguimos una especie de muestra independiente. Pero lo que no entiendo de este procedimiento es que, aunque tengamos una muestra (aproximadamente) independiente, no estamos todavía simulando a partir de la distribución posterior; si no, toda la muestra tendría independencia presente.
Así que, en mi opinión, el adelgazamiento da más independencia, lo que sin duda es necesario para aproximarse a la estadística mediante la simulación de Montecarlo y la ley de los grandes números. Pero no acelera el encuentro con la distribución posterior. Al menos, no conozco ninguna evidencia matemática sobre este último hecho. Así que, en realidad, no hemos ganado nada (aparte de una menor demanda de almacenamiento y memoria). Se agradecería cualquier idea sobre esta cuestión.