Estaba leyendo el libro Pattern Recognition and Machine Learning de Bishop. Tuve una confusión relacionada con una derivación del sistema dinámico lineal. En el SUD asumimos que las variables latentes son continuas. Si Z denota las variables latentes y X las variables observadas
$p(z_n|z_{n-1}) = N(z_n|Az_{n-1},\tau)$
$p(x_n|z_n) = N(x_n,Cz_n,\Sigma)$
$p(z_1) = N(z_1|u_0,V_0)$
En LDS también se utiliza el paso de mensajes alfa beta hacia adelante y hacia atrás para calcular la distribución latente posterior, es decir $p(z_n|X)$
$\alpha(z_n)=p(x1...xn,z_n)$
$\hat\alpha(z_n) = \alpha(z_n)/P(x1....xn)$
Mi primera pregunta es en el libro se da como
$\hat\alpha(z_n) = N(z_n|u_n,V_n)$
Cómo es que tenemos lo anterior. Es decir $\hat\alpha(z_n)$ = $N(z_n|u_n,V_n))$ . ¿Cómo hemos llegado a esto?
Mi siguiente pregunta está relacionada con la derivación como se puede seguir a lo largo de las capturas de pantalla de las páginas del libro adjunto. No he conseguido que donde $K_n$ y cuál es la ganancia del filtro de Kalman
$u_n = Au_{n-1} + K_n(x_n - CAu_{n-1})$
$V_n = I - K_nC)P_(n-1)$
$c_n = N(x_n|CAu_{n-1},CP_{n-1}C^T + \Sigma$
$K_n$ es la matriz de ganancia de Kalman $P_{n-1}C^T(CP_{n-1}C^T + \Sigma) ^ {-1}$
¿Cómo derivamos las ecuaciones anteriores, es decir, cómo es que
$u_n = Au_{n-1} + K_n(x_n - CAu_{n-1})$
Sólo estoy confundido sobre cómo se hace la derivación anterior.