9 votos

Confusión relacionada con los sistemas dinámicos lineales

Estaba leyendo el libro Pattern Recognition and Machine Learning de Bishop. Tuve una confusión relacionada con una derivación del sistema dinámico lineal. En el SUD asumimos que las variables latentes son continuas. Si Z denota las variables latentes y X las variables observadas

$p(z_n|z_{n-1}) = N(z_n|Az_{n-1},\tau)$

$p(x_n|z_n) = N(x_n,Cz_n,\Sigma)$

$p(z_1) = N(z_1|u_0,V_0)$

En LDS también se utiliza el paso de mensajes alfa beta hacia adelante y hacia atrás para calcular la distribución latente posterior, es decir $p(z_n|X)$

$\alpha(z_n)=p(x1...xn,z_n)$

$\hat\alpha(z_n) = \alpha(z_n)/P(x1....xn)$

Mi primera pregunta es en el libro se da como

$\hat\alpha(z_n) = N(z_n|u_n,V_n)$

Cómo es que tenemos lo anterior. Es decir $\hat\alpha(z_n)$ = $N(z_n|u_n,V_n))$ . ¿Cómo hemos llegado a esto?

Mi siguiente pregunta está relacionada con la derivación como se puede seguir a lo largo de las capturas de pantalla de las páginas del libro adjunto. No he conseguido que donde $K_n$ y cuál es la ganancia del filtro de Kalman

$u_n = Au_{n-1} + K_n(x_n - CAu_{n-1})$

$V_n = I - K_nC)P_(n-1)$

$c_n = N(x_n|CAu_{n-1},CP_{n-1}C^T + \Sigma$

$K_n$ es la matriz de ganancia de Kalman $P_{n-1}C^T(CP_{n-1}C^T + \Sigma) ^ {-1}$

¿Cómo derivamos las ecuaciones anteriores, es decir, cómo es que

$u_n = Au_{n-1} + K_n(x_n - CAu_{n-1})$

Sólo estoy confundido sobre cómo se hace la derivación anterior. enter image description here

enter image description here

enter image description here

1voto

jws121295 Puntos 36

Hay una buena derivación, varias en realidad, en lo siguiente: http://amzn.com/0470173661

Este es un buen libro sobre el tema también: http://amzn.com/0471708585

La derivación completa, y las simplificaciones que dan lugar a la forma abreviada del libro de texto que presentas, no es corta/limpia, por lo que a menudo se omite o se deja como ejercicio para el lector.

Se puede pensar en la ganancia de Kalman como una proporción de mezcla que hace una suma ponderada de un modelo analítico/simbólico y alguna medida ruidosa del mundo real. Si tienes unas mediciones de mierda, pero un buen modelo, entonces una ganancia de Kalman bien ajustada debería favorecer al modelo. Si usted tiene un modelo de basura, pero bastante buenas mediciones, entonces su ganancia de Kalman debe favorecer las mediciones. Si usted no tiene un buen manejo de lo que sus incertidumbres son, entonces puede ser difícil de configurar adecuadamente su filtro de Kalman.

Si se establecen correctamente las entradas, se trata de un estimador óptimo. Hay una serie de suposiciones que entran en su derivación y si alguna de ellas no es cierta, entonces se convierte en un estimador subóptimo bastante bueno. Por ejemplo, un gráfico de Lag demostrará que la suposición de Markov de un paso implícita en el filtro de Kalman no es cierta para una función coseno. Una serie de Taylor es una aproximación, pero no es exacta. Se puede hacer un filtro de Kalman extendido basado en la serie de Taylor, pero es aproximado, no exacto. Si puedes tomar información de dos estados anteriores en lugar de uno, puedes usar un filtro de Kalman en bloque y recuperar la optimalidad. En resumen, no es una mala herramienta, pero no es "la bala de plata" y su kilometraje variará. Asegúrate de caracterizarlo bien antes de utilizarlo en el mundo real.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X