Esta pregunta es sobre la inferencia MAP en un modelo AR(1) (ejercicio 1.6 de West, M., Time Series: Modeling, Computation and Inference). No es una tarea para casa.
Supongamos que $n$ observaciones se generaron a partir del modelo
$y_t = \phi y_{t-1} + \epsilon_t,\ \epsilon_t\sim\mathcal{N}(0, v)$
donde $y_1$ (la primera observación) es conocida, es decir, podemos utilizar la probabilidad condicional $p(y_{2:n} | y_1, \phi, v)$ en lo siguiente.
El objetivo es calcular el modo de $p(v | y_{1:n})$
Priores y posteriors
Ponemos una prioridad gaussiana y gamma inversa en $\phi$ y v, respectivamente, por lo que
$\phi | v \sim \mathcal{N}(0,v)$
$v\sim IG(n_0/2, d_0/2)$
Las distribuciones posteriores vienen dadas por
$\phi | y_{1:n}, v \sim \mathcal{N}(m, vC)$ $\qquad(*)$
$v| y_{1:n} \sim IG(n^*/2, d^*/2)$
donde $m=\frac{\sum_{t=2}^n y_{t}y_{t-1}}{\sum_{t=2}^n y_{t-1}+1},\ C=\frac{1}{\sum_{t=2}^n y_{t-1}+1},\ n^*=n+n_0-1,\ d^*=\sum_{t=2}^n y_{t}^2-m+d_0 $
Además, la articulación posterior $(\phi, v | y_{1:n})$ bajo la probabilidad total $p(y_{1:n} | \phi, v)$ es proporcional a
$v^{-n/2+1}(1-\phi^2)^{1/2}\exp\left(-\frac{\sum(y_t-\phi y_{t-1})}{2v}\right)$ $\qquad(**)$
EM
Para encontrar el MAP para $v$ utilizamos el algoritmo EM. El $m$ -El quinto paso E consiste en calcular $E^{(m-1)}[\log(\phi,v| y_{1:n})]$ por lo que debemos calcular la expresión
$\int_{\mathbb{R}}\log p(\phi, v| y_{1:n})p(\phi| v^{m-1}, y_{1:n})d\phi$
Introduciendo las expresiones de $(*), (**)$ Me parece que esta integral es muy difícil de calcular. ¿Es realmente el camino a seguir? ¿Cómo puedo avanzar?
Gracias por la ayuda.
0 votos
Una pregunta muy interesante. El MCMC es utilizado por los bayesianos para obtener distribuciones posteriores sin hacer directamente la integral para normalizar la densidad. ¿Has considerado esto o West lo menciona en su texto?