He estado revisando la literatura bayesiana en un intento de utilizar la inferencia bayesiana para pruebas de hipótesis cuando tengo priors muy bien establecidos, pero hay algo que no logro entender:
¿Por qué la constante de normalización no es importante para determinar el posterior cuando se utilizan métodos MCMC? Entiendo que la evidencia no depende de los parámetros debido a la integración, pero ¿cómo puede ser tu posterior una distribución de probabilidad válida si no integra a uno (que según entiendo es la función de la constante de normalización)? Si no es una distribución de probabilidad válida (ya que solo es proporcional a la verosimilitud x prior), ¿entonces cómo es útil?
Realmente necesito que alguien me explique esto como si tuviera 7 años, o posiblemente un primate de algún tipo, porque estoy teniendo un momento terrible para entenderlo.