6 votos

Descomposición de la matriz simétrica con base orthonormal de autovectores no

Me gustaría conocer la siguiente transformación se encuentra en la documentación para la obtención de filtro de Kalman.

Formulación abstracta: se administran 2 matrices simétricas $A$ ,$B$ $\in$ $\mathbb R^{3,3}$ con $A \ne B$ y un conjunto de vectores propios ortonormales ($u_1$, $u_2$, $u_3$) de otra matriz $B$ ( $A$ !). Debido a que las matrices son simétricas está claro que $B$ puede ser descompuesto a $B = U\Lambda U^t$. Ahora hay declaró que Una puede ser escrita como:

$A$ = ($u_1^t$UN$u_1$)$u_1$$u_1^t$ + ($u_2^t$UN$u_2$)$u_2$$u_2^t$ + ($u_3^t$UN$u_3$)$u_3$$u_3^t$
es decir, con el "exterior" vectores propios.

Situación concreta: En la ecuación original la mencionada $A$ se define como $H_kP_k^-H_k^t$ + $R_a$, donde $P^-$ es una estimación a priori de error covarianza y $R_a$ es el ruido del sensor error de la matriz de covarianza. $H_k$ ha 3x9 dimensión y contiene algunos de los más "abstracto" de contenido con la matriz de rotación de una cuádrupla multiplicado con producto cruzado operador de vector de gravedad (0,0,g). Por lo que puedo ver, el término ($H_kP_k^-H_k^t$ + $R_a$) no da lugar a una matriz diagonal y este parece ser irrelevante. Lo que me llama $B$ es en realidad la señal del error global de error covarianza nombrado $U_k$

A partir de originales en papel:

From paper

Debido a $U_k$ matriz de covarianza no puede ser obtenida en este punto en el tiempo (una estimación a priori), es aproximada por la media de los últimos M pasos, es decir desde el k-M k-1. La señal en sí mismo puede ser fluctuante considerablemente porque a veces no es externo aceleración en otras ocasiones no hay por lo tanto el ruido del sensor es la única cosa que ser medido.

Asunción (gracias a la Calle y joriki comentarios): El eigendecomposition de $U_k$ está relacionado con el PCA análisis de componentes Principales (uno más fácil aquí). Los casos más interesantes son todas aquellas medidas con fuertes aceleraciones decir $U_k$ es mucho mayor que el resto del plazo. Así que esta descomposición de la 2º plazo transforma (aproximadamente?) hacia la dirección de la señal más fuerte. Por lo tanto $\lambda - \mu$ ayuda a detectar estas situaciones respectivamente distinguirlas de las fases con señal aparte de ruido.

  • ¿Esta explicación tiene sentido?
  • Puede este procedimiento de aproximación con "malo", vectores propios y valores aplicados y compara como es debido?
  • ¿Cuál es el nombre de esta matriz la descomposición no con sus propios vectores propios?
  • ¿Cuál es el error?

Gracias por la ayuda

Kay

PS: se cambió el Título de "matriz Simétrica multiplicado por el tipo de base ortonormales"

2voto

BarryBostwick Puntos 12

Escribir una matriz de $A$ en términos de una base que no diagonalize la matriz $A$ es posible, pero requiere de una completa expansión de todos los términos, no sólo de los términos de la diagonal. (Si la base diagonalizes $A$, a continuación, todos fuera de la diagonal términos sería cero).

Si $A$ $3 \times 3$ matriz y escribir $ A = U U^{-1} A UU^{-1}$ con $$U = \begin{bmatrix}\mathbf{u}_1 & \mathbf{u}_2 & \mathbf{u}_3\end{bmatrix}$$ entonces usted tiene la suma a lo largo de todos los pares $ij$ (no sólo por $i=j$) $$ A = \sum_{ij}\mathbf{u}_i ( \mathbf{u}_i^\top A \mathbf{u}_j)\mathbf{u}_j^\top$$

No puedo decirte por qué el fuera de la diagonal términos fueron ignorados, tal vez sea por diseño o quizás por error.

Aquí es el de la expansión:

\begin{align} U^{-1}AU &=\begin{bmatrix}\mathbf{u}_1^\top \\ \mathbf{u}_2^\top \\ \mathbf{u}_3^\top \end{bmatrix}\begin{bmatrix}\mathbf{u}_1 & \mathbf{u}_2 & \mathbf{u}_3\end{bmatrix} \\ y=\begin{bmatrix}\mathbf{u}_1^\top A \\ \mathbf{u}_2^\top A \\ \mathbf{u}_3^\top A\end{bmatrix} \begin{bmatrix}\mathbf{u}_1 & \mathbf{u}_2 & \mathbf{u}_3\end{bmatrix} \\ y= \begin{bmatrix}\mathbf{u}_1^\top A \mathbf{u}_1 & \mathbf{u}_1^\top A \mathbf{u}_2 & \mathbf{u}_1^\top A \mathbf{u}_3 \\ \mathbf{u}_2^\top A \mathbf{u}_1 & \mathbf{u}_2^\top A \mathbf{u}_2 & \mathbf{u}_2^\top A \mathbf{u}_3 \\\mathbf{u}_3^\top A \mathbf{u}_1 & \mathbf{u}_3^\top A \mathbf{u}_3 & \mathbf{u}_3^\top A \mathbf{u}_3 \\\end{bmatrix} \\ UU^{-1}AUU^{-1} &= \begin{bmatrix}\mathbf{u}_1 & \mathbf{u}_2 & \mathbf{u}_3\end{bmatrix}\begin{bmatrix}\mathbf{u}_1^\top A \mathbf{u}_1 & \mathbf{u}_1^\top A \mathbf{u}_2 & \mathbf{u}_1^\top A \mathbf{u}_3 \\ \mathbf{u}_2^\top A \mathbf{u}_1 & \mathbf{u}_2^\top A \mathbf{u}_2 & \mathbf{u}_2^\top A \mathbf{u}_3 \\\mathbf{u}_3^\top A \mathbf{u}_1 & \mathbf{u}_3^\top A \mathbf{u}_2 & \mathbf{u}_3^\top A \mathbf{u}_3 \\\end{bmatrix}\begin{bmatrix}\mathbf{u}_1^\top \\ \mathbf{u}_2^\top \\ \mathbf{u}_3^\top\end{bmatrix} \\ \hphantom{Un} \\ A &= \begin{bmatrix}\mathbf{u}_1 & \mathbf{u}_2 & \mathbf{u}_3\end{bmatrix}\begin{bmatrix}\mathbf{u}_1^\top A \mathbf{u}_1 \mathbf{u}_1^\top + \mathbf{u}_1^\top A \mathbf{u}_2 \mathbf{u}_2^\top + \mathbf{u}_1^\top A \mathbf{u}_3\mathbf{u}_3^\top \\ \mathbf{u}_2^\top A \mathbf{u}_1\mathbf{u}_1^\top + \mathbf{u}_2^\top A \mathbf{u}_2\mathbf{u}_2^\top + \mathbf{u}_2^\top A \mathbf{u}_3\mathbf{u}_3^\top \\\mathbf{u}_3^\top A \mathbf{u}_1\mathbf{u}_1^\top + \mathbf{u}_3^\top A \mathbf{u}_2\mathbf{u}_2^\top + \mathbf{u}_3^\top A \mathbf{u}_3\mathbf{u}_3^\top \\\end{bmatrix} \\ &= \sum_{ij}\mathbf{u}_i ( \mathbf{u}_i^\la parte superior de Una \mathbf{u}_j)\mathbf{u}_j^\la parte superior \end{align}

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X