Loading [MathJax]/extensions/TeX/mathchoice.js

3 votos

Función 1: Rotación en sentido horario con calentamiento

El programa de instalación

Deje Σt ser el momento en el t positivo-definida matriz de covarianza de algunos N-dimensiones aleatorios vectoriales Xt. Denotar Σt=PtΛtPt ser el espectral/eigen-descomposición de esta matriz de covarianza. Hay N + {N \choose 2} = N(N+1)/2 libre de elementos en la matriz. Hay N positivo autovalores, y el resto, en los vectores propios.

Preguntas

Me pregunto cómo una rotación de Givens matrices de "aislar" la {N \choose2} "libre" de los elementos de los vectores propios. Un artículo que estoy leyendo dice:

Además de escribir cada una de las P_t como producto de la N(N-1)/2 rotación de Givens matrices de P_t = \Pi_{i<j}G_{ij}(\omega_{i,j,t})...

  1. ¿Cómo debo visualizar o entender la N(N-1)/2 libre de elementos de P_t antes de los Supuestos de transformación. Probablemente algo que ver con restricciones de ortogonalidad, ¿verdad?
  2. ¿Cómo puedo visualizar o entender lo que las rotaciones de Givens están haciendo? Me imagino que el trazado de cada w_{i,j,t} frente al tiempo t conduce a algo de aspecto agradable.

1voto

Taylor Puntos 692

@ameba comentario de respuestas la primera cosa pregunta. Esto es todo por el segundo. Vamos a suprimir todos los de la mención de t. Elemento (k,l) de un Givens matriz G_{i,j} \in \mathbb{R}^{N \times N} puede ser escrito como G_{i,j}[k,l] = \begin{cases} \cos(\omega_{i,j}) & i=j \text{ and } (i=k \text{ or } i = l) \\ \sin(\omega_{i,j}) & k=i \text{ and } l = j\\ -\sin(\omega_{i,j}) & k=j \text{ and } l = i \\ 1 & k = l \text{ and } k \neq i \text { and } k \neq j \\ 0 & \text{ otherwise } . \end{casos}

La rotación de un Vector

Wikipedia tiene una descripción bastante buena acerca de cómo la transposición de esta matriz toma vectores y gira en el i-j plano en sentido contrario de la moda.

Deje v \in \mathbb{R}^N ser algunos de vectores. Escoger el ángulo adecuado -2\pi \le \omega_{i,j} \le 2 \pi cero fuera de la jth elemento de este vector. También el mapa de la ith elemento de este vector a \sqrt{v_i^2 + v_j^2}. En otras palabras: G_{i,j}^Tv = (v_1,\ldots,v_{i-1},\sqrt{v_i^2 + v_j^2},v_{i+1},\ldots,v_{j-1},0,v_{j+1},\ldots,v_n)^T.

Rotación de una Matriz

Pensar acerca de la rotación de nuestro ortogonal de la matriz P = [P_1,\ldots,P_N] (recuerde que no hay más t). El índice de i se corresponde con la columna de P de los que estamos hablando. Set i=1 por un segundo. Dejando j 2,\ldots,N hemos G_{1,2}^T \cdots G_{1,N}^T P_1 = (1,0,\ldots,0)^T = e_1 donde e_n \in \mathbb{R}^N corresponde a una matriz de ceros, excepto una 1 nth irregular. Esto es debido a que esta columna es de unidad de longitud.

G_{1,2}^T \ldots G_{1,N}^T afectada P_2, pero ninguna de las otras columnas. Por el mismo razonamiento como el anterior G_{2,3}^T\cdots G_{2,N}^T \cdot G_{1,2}^T \cdots G_{1,N}^T P_2 = e_2. También, G_{2,3}^T\cdots G_{2,N}^T \cdot G_{1,2}^T \cdots G_{1,N}^T P_1 = e_1 todavía, porque la rotación (0,0)^T los rendimientos de la misma cosa.

Así que usted puede proceder inductivamente y obtener \prod_{i<j}G_{i,j}^T P = [e_1,\ldots,e_N]= I, y podemos resolver esto y conseguir P = [\prod_{i<j}G_{i,j}^T]^{-1} = \prod_{i<j}G_{i,j}, lo cual es cierto siempre y cuando tengamos cuidado sobre el pedido de la G_{i,j}s correctamente (recordemos que G_{i,j}^T = G_{i,j}^{-1}).

Las Restantes Preguntas

No estoy todavía seguro de que en la interpretación individual \omega_{i,j}s. También, estas matrices no conmuta con el uno al otro, entonces, ¿cómo podemos elegir el "derecho" de la orden. No hay ningún punto de incentivos para la aceptación de mi propia respuesta, por lo que cualquier persona, siéntase libre de chip en aquí.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X