Primer post en math.stackexchange; disculpen si esto es ingenuo/repetido.
Estoy siguiendo este documento del profesor David M. Blei: http://www.cs.princeton.edu/courses/archive/fall11/cos597C/lectures/variational-inference-i.pdf
En esto, no entiendo muy bien cómo llegó a la fórmula de distribución posterior para p(u, z|x) en la sección "Motivación" - punto número 3.
Intento pensar en términos de vectores. También sé que la fórmula hace una suposición de independencia entre los componentes individuales de los vectores x y z (de ahí las multiplicaciones con el subíndice "i"). También sé que el denominador es p(x), ya que u y z obviamente se están "integrando". Además, u es un parámetro continuo, z es discreto. De ahí la integral y la suma en el denominador respectivamente.
Pero centrémonos ahora sólo en el numerador. El primer término, es obviamente p(u) (¿o no?). El segundo término es lo que no soy capaz de entender. ¿Es alguna forma de p(x, z | u)?
Otra pregunta: En la sección "Configuración" - punto 2, la posterior se define como p(z | x, ). Obsérvese que el está en el lado derecho del "|". Ahora, en la sección "Motivación" - punto 3, la posterior se define como p(µ1:K, z1:n | x1:n). Una suposición justa (OMI) es que = µ1:K, es decir, los parámetros de este modelo. ¿Cómo se salta a la lado izquierdo de la "|" en esta definición de la posterioridad entonces?
Nota: La notación utilizada en la pregunta anterior es la siguiente:
u : mu, los parámetros de la distribución gaussiana asumida.
x : un vector de variables, digamos x_i, donde i = 1:N
z : variables latentes asociadas a cada x anterior. También es un vector de dimensión M.
¡Gracias, y cualquier/toda ayuda es apreciada!