Estaba jugando con algunas matrices cuadradasn\times n y encontré una matriz donde la transposición deA multiplicada porA me da la matriz diagonal con valores de determinante deA. Es decir A^TA = \det(A)I. ¿Significa esto algo significativo? Me encantaría conocer tu opinión.
Respuestas
¿Demasiados anuncios?Voy a suponer que estamos trabajando sobre \mathbb{R}. Permítanme tratar y resolver un poco más general del problema y luego ver lo que esto implica para su problema. Supongamos que tenemos una matriz de A \in M_n(\mathbb{R}) tal que AA^T = cI algunos c \in \mathbb{R}. ¿Qué podemos decir acerca de A?
En primer lugar, la matriz de AA^T es positivo semi-definida y por lo c \geq 0. Deje que nos indican las columnas de aAA_i. El (i,i)-entrada de AA^T \left< A_i, A_i \right> = \| A_i \|^2 (la longitud de A_i al cuadrado con respecto a la norma interna del producto en \mathbb{R}^n). Si c = 0, entonces esto implica que A_i = 01 \leq i \leq nA = 0. Si c > 0, podemos definir a la B := \frac{A}{\sqrt{c}} y, a continuación,BB^T = I.
Real matrices B \in M_n(\mathbb{R}) que satisfacer BB^T = I se llama ortogonal de matrices. Son invertible y preservar la longitud y los ángulos de los vectores en \mathbb{R}^n (con respecto al estándar de la noción de longitud y ángulo). Hemos demostrado que A = \sqrt{c} B A es un escalar positivo veces una matriz ortogonal. Tales matrices preservar los ángulos de los vectores, pero no es necesario que la longitud (escala de la longitud por \sqrt{c}).
Volvamos ahora a la pregunta. Suponga AA^T = \det(A)I. Por lo que hemos demostrado, o tenemos A = 0 o \det(A) > 0. Tomando el determinante de ambos lados, obtenemos
\det(AA^T) = \det(A)\det(A^T) = \det(A)^2 = \det(\det(A)I) = \det(A)^n.
Si n \neq 2, entonces esto implica que \det(A) = 1 AA^T = I A es una matriz ortogonal (o quizás A = 0). Si n = 2, entonces esto no implica nada, pero nuestra discusión anterior muestra que A es una matriz ortogonal veces no negativo tan geométricamente se representa una matriz de la cual conserva los ángulos, pero no necesariamente las longitudes de los vectores (a menos que de nuevo A = 0). Para resumir:
- Si n \neq 2 A debe ser ortogonal con \det(A) = 1 o A = 0.
- Si n = 2 A debe ser de la forma A = cB donde c \geq 0 B es ortogonal con \det(B) = 1.
Tiene algunas implicaciones para las propiedades de \bf A. (fuente: wikipedia)
- Hay una matriz se llama el cofactor de la matriz \bf C (de \bf A): {\bf C}_{ij} = (-1)^{i+j}{\bf M}_{ij}
- Donde el \bf M matriz contiene los menores de edad {\bf M}_{ij} \bf A .
- El menor {\bf M}_{ij} es el determinante de la matriz de donde la fila i columna j es eliminado de \bf A.
- La adjunta (a veces adjunto) de \bf A ahora es la transpuesta de \bf C : \text{adj}({\bf A}) = {\bf C}^T
Ahora es posible demostrar que:
{\bf A} \text{adj}({\bf A}) = \det({\bf A}){\bf I}
Y reescritura, asumiendo \bf A es invertible:
\text{adj}({\bf A}) = \det({\bf A}){\bf A}^{-1}
Ahora, tal vez usted puede traducir lo implicaciones tu pregunta tiene para estos \bf C\bf M.
En realidad, sí, en mi opinión. Esto significa que A es un ángulo de preservación de la transformación lineal (o más rigurosamente, A es una representación de la matriz de uno), que es bastante limpio. En general, podemos caracterizar a todos los que preservan el ángulo transformaciones lineales sobre un bien finito dimensional Espacio Euclídeo como múltiplos escalares de una transformación ortogonal. A es claramente dicha matriz. Voy a probar la caracterización de abajo.
Prueba. Por suponga que el ángulo entre el Ay Aw es que entre elyw, es decir, si \displaystyle \frac{\langle Ay, Aw \rangle}{\|Ay \| \|Aw \|} = \frac{\langle y, w \rangle}{\|y\| \|w\|}. Ahora, seleccione una base ortonormales \{v_i\}_{i=1}^n para el espacio Euclidiano V. A continuación, \{Av_i\}_{i=1}^n forma una base ortogonal. De esta manera se sigue desde el ángulo de la preservación de la naturaleza de la A0 = \langle v_i, v_j \rangle \Rightarrow \langle Av_i, Av_j \rangle = 0, e n=\dim(V) ortogonal de vectores constituye una base para V. Indicar el Av_iu_i.
Ahora, tenemos A^TA = \begin{pmatrix} u_1 \\ u_2 \\ \vdots \\ u_n \end{pmatrix} \begin{pmatrix} u_1 & u_2 & \ldots & u_n \end{pmatrix} = {\begin{pmatrix} \|u_1\|^2 & 0 & \cdots & 0 \\ 0 & \ddots & \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \cdots & 0 & \|u_n\|^2 \end{pmatrix}}. The claim is that \|u_i\|^2 = \|u_j\|^2, for then ^TA is a scalar multiple of the identity, and hence $$ es un escalar múltiples de una transformación ortogonal.
Ahora, tenemos \displaystyle \frac{\langle v_i, v_i + v_j \rangle}{\|v_i\|\|v_i + v_j\|} = \frac{\langle v_i , v_i \rangle + \langle v_i, v_j \rangle}{\|v_i\| \|v_i + v_j\|} = \frac{1}{1*\|v_i + v_j \|} = \frac{1}{\sqrt{\langle v_i + v_j, v_i + v_j \rangle}} = \frac{1}{\sqrt{\langle v_i, v_i \rangle + 2\langle v_i, v_j \rangle + \langle v_j, v_j \rangle}} = \frac{1}{\sqrt{2}}. Desde A es el ángulo de la preservación, tenemos \displaystyle \frac{1}{\sqrt{2}}=\frac{\langle u_i, u_i + u_j \rangle}{\|u_i\|\|u_i + u_j\|} = \frac{\langle u_i, u_i \rangle + \langle u_i, u_j \rangle}{\|u_i\|\|u_i + u_j\|} = \frac{\|u_i\|^2}{\|u_i\|\|u_i + u_j\|} = \frac{\|u_i\|}{\|u_i + u_j\|}. Ahora, multiplicando y el cuadrado da \|u_i + u_j \|^2 = 2 \|u_i\|^2 \Rightarrow 2\langle u_i, u_i \rangle = \langle u_i + u_j , u_i + u_j \rangle = \langle u_i, u_i \rangle + 2 \langle u_i, u_j \rangle + \langle u_j, u_j \rangle = \langle u_i, u_i \rangle + \langle u_j, u_j \rangle \Rightarrow \langle u_i, u_i \rangle = \langle u_j, u_j \rangle \Rightarrow \|u_i\|^2 = \|u_j\|^2. Por lo tanto la demanda se demuestra.