Actualmente estoy estimando los parámetros de un modelo definido por varias ecuaciones diferenciales ordinarias (EDO). Lo intento con un enfoque bayesiano aproximando la distribución posterior de los parámetros dados algunos datos utilizando Markov Chain Monte Carlo (MCMC).
Un muestreador MCMC genera una cadena de valores de parámetros en la que utiliza la probabilidad posterior (no normalizada) de un determinado valor de parámetro para decidir (estocásticamente) si añadirá ese valor a la cadena o volverá a añadir el valor anterior. Pero, parece ser la práctica que las probabilidades posteriores reales no necesitan ser guardadas, más bien se genera un histograma n-dimensional de los valores de los parámetros resultantes y las estadísticas de resumen como las regiones de mayor densidad (HDRs) de una ditribución posterior de los parámetros se calcula a partir de este histograma. Al menos eso es lo que creo que aprendí de Libro tutorial de Kruschkes sobre la inferencia bayesiana .
Mi pregunta: ¿No sería más sencillo guardar las probabilidades posteriores de los valores de los parámetros muestreados junto con estos y aproximar la distribución posterior a partir de estos valores y no de las frecuencias de los valores de los parámetros en la cadena MCMC? El problema de la fase de burn-in no surgiría ya que el muestreador seguiría muestreando inicialmente regiones de baja probabilidad con más frecuencia de la que "merecerían" por sus probabilidades posteriores pero ya no tendría el problema de dar valores de probabilidad indebidamente altos a estas.