Tengo entendido que cuando se utiliza un enfoque bayesiano para estimar los valores de los parámetros:
- La distribución posterior es la combinación de la distribución a priori y la distribución de probabilidad.
- Lo simulamos generando una muestra de la distribución posterior (por ejemplo, utilizando un algoritmo Metropolis-Hasting para generar valores, y aceptarlos si están por encima de un determinado umbral de probabilidad de pertenecer a la distribución posterior).
- Una vez que hemos generado esta muestra, la utilizamos para aproximar la distribución posterior, y cosas como su media.
Pero, siento que debo estar malinterpretando algo. Suena como si tuviéramos una distribución posterior y luego la muestra de ella, y luego usar esa muestra como una aproximación de la distribución posterior. Pero si tenemos la distribución posterior para empezar, ¿por qué necesitamos muestrear de ella para aproximarla?