Supongamos que tengo un trabajo posterior de $p(z, \theta | y, \eta)$ $y$ datos observados, $z$ son variables ocultas y $\theta$ son parámetros, y $\eta$ es un vector de hyperparameters. Me la construcción de un campo medio de aproximación a la utilización posterior de coordenadas de ascenso, es decir, $$ q(z) \consigue \exp\left\{E_q(\log p(z, \theta | y, \eta) | z) + \mbox{const}\right\} \\ q(\theta) \consigue \exp\left\{E_q(\log p(z, \theta | y, \eta) | \theta) + \mbox{const}\right\} $$ donde $\mbox{const}$ hace que cada integrar a $1$. Iterar hasta la convergencia. Mi pregunta es, si yo quiero hacer empírico de Bayes, y (aproximadamente) el perfil $\eta$, ¿es válido sólo aumentar esta con un EM paso $$ \eta \consigue \arg \max_\eta E_q \log(p(z, \theta | y, \eta))? $$ Basado en la evidencia límite inferior $$ \log p(y | \eta) \ge E_q \log(p(z, \theta | y, \eta)) - E_q \log(p(z, \theta)) $$ me parece que debería ser capaz de salirse con la suya; la optimización del límite inferior $\eta$ es exactamente la propuesta de EM el paso, así que todavía estoy haciendo coordinar ascenso en el límite inferior.
Sospecho que, si esto funciona, es obvio que para las personas que variacional de inferencia con regularidad. Desde variacional métodos son rápidos, mi pensamiento es que tal vez yo podría hacer esto para establecer hyperparameters antes de lanzarse en un muestreador de Gibbs para una exacta (hasta MCMC error) inferencia.
Actualización: he jugado con esto un poco y se encontró que la adición de la EM paso puede trabajar muy bien, pero en algunas situaciones parece aumentar la sensibilidad a las malas local optima en el variacional algoritmo. Inicializaciones de variacional parámetros que normalmente parecen funcionar bien, no. Si yo en cambio solo tiro en la EM paso cada par de iteraciones que funciona mejor, pero entonces, por supuesto que ralentizar la convergencia. Un método que funciona muy bien es para "quemar" el variacional algoritmo usando un método que me de confianza y, a continuación, agregar la EM paso cada iteración a partir de entonces. Estoy añadiendo una recompensa porque todavía estoy buscando algunos buenos consejos generales.