Estaba jugando con algunas matrices cuadradas$n\times n$ y encontré una matriz donde la transposición de$A$ multiplicada por$A$ me da la matriz diagonal con valores de determinante de$A$. Es decir $A^TA = \det(A)I$. ¿Significa esto algo significativo? Me encantaría conocer tu opinión.
Respuestas
¿Demasiados anuncios?Voy a suponer que estamos trabajando sobre $\mathbb{R}$. Permítanme tratar y resolver un poco más general del problema y luego ver lo que esto implica para su problema. Supongamos que tenemos una matriz de $A \in M_n(\mathbb{R})$ tal que $AA^T = cI$ algunos $c \in \mathbb{R}$. ¿Qué podemos decir acerca de $A$?
En primer lugar, la matriz de $AA^T$ es positivo semi-definida y por lo $c \geq 0$. Deje que nos indican las columnas de a$A$$A_i$. El $(i,i)$-entrada de $AA^T$ $\left< A_i, A_i \right> = \| A_i \|^2$ (la longitud de $A_i$ al cuadrado con respecto a la norma interna del producto en $\mathbb{R}^n$). Si $c = 0$, entonces esto implica que $A_i = 0$$1 \leq i \leq n$$A = 0$. Si $c > 0$, podemos definir a la $B := \frac{A}{\sqrt{c}}$ y, a continuación,$BB^T = I$.
Real matrices $B \in M_n(\mathbb{R})$ que satisfacer $BB^T = I$ se llama ortogonal de matrices. Son invertible y preservar la longitud y los ángulos de los vectores en $\mathbb{R}^n$ (con respecto al estándar de la noción de longitud y ángulo). Hemos demostrado que $A = \sqrt{c} B$ $A$ es un escalar positivo veces una matriz ortogonal. Tales matrices preservar los ángulos de los vectores, pero no es necesario que la longitud (escala de la longitud por $\sqrt{c})$.
Volvamos ahora a la pregunta. Suponga $AA^T = \det(A)I$. Por lo que hemos demostrado, o tenemos $A = 0$ o $\det(A) > 0$. Tomando el determinante de ambos lados, obtenemos
$$ \det(AA^T) = \det(A)\det(A^T) = \det(A)^2 = \det(\det(A)I) = \det(A)^n. $$
Si $n \neq 2$, entonces esto implica que $\det(A) = 1$ $AA^T = I$ $A$ es una matriz ortogonal (o quizás $A = 0$). Si $n = 2$, entonces esto no implica nada, pero nuestra discusión anterior muestra que $A$ es una matriz ortogonal veces no negativo tan geométricamente se representa una matriz de la cual conserva los ángulos, pero no necesariamente las longitudes de los vectores (a menos que de nuevo $A = 0$). Para resumir:
- Si $n \neq 2$ $A$ debe ser ortogonal con $\det(A) = 1$ o $A = 0$.
- Si $n = 2$ $A$ debe ser de la forma $A = cB$ donde $c \geq 0$ $B$ es ortogonal con $\det(B) = 1$.
Tiene algunas implicaciones para las propiedades de $\bf A$. (fuente: wikipedia)
- Hay una matriz se llama el cofactor de la matriz $\bf C$ (de $\bf A$): $${\bf C}_{ij} = (-1)^{i+j}{\bf M}_{ij}$$
- Donde el $\bf M$ matriz contiene los menores de edad ${\bf M}_{ij}$ $\bf A$ .
- El menor ${\bf M}_{ij}$ es el determinante de la matriz de donde la fila $i$ columna $j$ es eliminado de $\bf A$.
- La adjunta (a veces adjunto) de $\bf A$ ahora es la transpuesta de $\bf C$ : $$\text{adj}({\bf A}) = {\bf C}^T$$
Ahora es posible demostrar que:
$${\bf A} \text{adj}({\bf A}) = \det({\bf A}){\bf I}$$
Y reescritura, asumiendo $\bf A$ es invertible:
$$\text{adj}({\bf A}) = \det({\bf A}){\bf A}^{-1}$$
Ahora, tal vez usted puede traducir lo implicaciones tu pregunta tiene para estos $\bf C$$\bf M$.
En realidad, sí, en mi opinión. Esto significa que $A$ es un ángulo de preservación de la transformación lineal (o más rigurosamente, $A$ es una representación de la matriz de uno), que es bastante limpio. En general, podemos caracterizar a todos los que preservan el ángulo transformaciones lineales sobre un bien finito dimensional Espacio Euclídeo como múltiplos escalares de una transformación ortogonal. $A$ es claramente dicha matriz. Voy a probar la caracterización de abajo.
Prueba. Por suponga que el ángulo entre el $Ay$ $Aw$ es que entre el$y$$w$, es decir, si $\displaystyle \frac{\langle Ay, Aw \rangle}{\|Ay \| \|Aw \|} = \frac{\langle y, w \rangle}{\|y\| \|w\|}$. Ahora, seleccione una base ortonormales $\{v_i\}_{i=1}^n$ para el espacio Euclidiano $V$. A continuación, $\{Av_i\}_{i=1}^n$ forma una base ortogonal. De esta manera se sigue desde el ángulo de la preservación de la naturaleza de la $A$$0 = \langle v_i, v_j \rangle \Rightarrow \langle Av_i, Av_j \rangle = 0$, e $n=\dim(V)$ ortogonal de vectores constituye una base para $V$. Indicar el $Av_i$$u_i$.
Ahora, tenemos $A^TA = \begin{pmatrix} u_1 \\ u_2 \\ \vdots \\ u_n \end{pmatrix} \begin{pmatrix} u_1 & u_2 & \ldots & u_n \end{pmatrix} = {\begin{pmatrix} \|u_1\|^2 & 0 & \cdots & 0 \\ 0 & \ddots & \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \cdots & 0 & \|u_n\|^2 \end{pmatrix}}$. The claim is that $\|u_i\|^2 = \|u_j\|^2$, for then $^TA$ is a scalar multiple of the identity, and hence $$ es un escalar múltiples de una transformación ortogonal.
Ahora, tenemos $ \displaystyle \frac{\langle v_i, v_i + v_j \rangle}{\|v_i\|\|v_i + v_j\|} = \frac{\langle v_i , v_i \rangle + \langle v_i, v_j \rangle}{\|v_i\| \|v_i + v_j\|} = \frac{1}{1*\|v_i + v_j \|} = \frac{1}{\sqrt{\langle v_i + v_j, v_i + v_j \rangle}} = \frac{1}{\sqrt{\langle v_i, v_i \rangle + 2\langle v_i, v_j \rangle + \langle v_j, v_j \rangle}} = \frac{1}{\sqrt{2}}$. Desde $A$ es el ángulo de la preservación, tenemos $\displaystyle \frac{1}{\sqrt{2}}=\frac{\langle u_i, u_i + u_j \rangle}{\|u_i\|\|u_i + u_j\|} = \frac{\langle u_i, u_i \rangle + \langle u_i, u_j \rangle}{\|u_i\|\|u_i + u_j\|} = \frac{\|u_i\|^2}{\|u_i\|\|u_i + u_j\|} = \frac{\|u_i\|}{\|u_i + u_j\|}$. Ahora, multiplicando y el cuadrado da $\|u_i + u_j \|^2 = 2 \|u_i\|^2 \Rightarrow 2\langle u_i, u_i \rangle = \langle u_i + u_j , u_i + u_j \rangle = \langle u_i, u_i \rangle + 2 \langle u_i, u_j \rangle + \langle u_j, u_j \rangle = \langle u_i, u_i \rangle + \langle u_j, u_j \rangle \Rightarrow \langle u_i, u_i \rangle = \langle u_j, u_j \rangle \Rightarrow \|u_i\|^2 = \|u_j\|^2$. Por lo tanto la demanda se demuestra.