Sé que $A\cdot\mathrm{adj}(A) = \det(A) \cdot I$, pero ¿por qué $\mathrm{adj}(A)\cdot A = A\cdot\mathrm{adj}(A)$?
Respuestas
¿Demasiados anuncios?Me pidieron hacer mi comentario sobre una respuesta, así que aquí vamos:
En primer lugar tenga en cuenta que ya sabe\begin{equation} \det\left(A^T\right)\cdot I=A^T\cdot \mathrm{adj}\left(A^T\right), \end{equation} también.
Ahora uso\begin{equation} \det\left(A\right)=\det\left(A^T\right) \end{equation} (conseguirlo utilizando la fórmula de $\det$ basado en permutaciones) y \begin{equation} \mathrm{adj}\left(A^T\right)=\mathrm{adj}\left(A\right)^T. \end{equation} (se consigue mediante la aplicación de la primera identidad a los menores determinantes en la definición de % entradas $\mathrm{adj}\left(A\right)_{i,j}$de la adjungate)
Terminas con:
\begin{align} A\cdot\mathrm{adj}\left(A\right)&=\det\left(A\right)\cdot I=\left(\det\left(A\right)\cdot I\right)^{T}\&=\left(\det\left(A^T\right)\cdot I\right)^{T}=\left(A^T\cdot \mathrm{adj}\left(A^T\right)\right)^T\&=\mathrm{adj\left(A^T\right)^T}\cdot A=\mathrm{adj\left(A\right)}\cdot A. \end {Alinee el}
Usted sabe que es verdad si $\det(A) \ne 0$. Pero el invertible matrices densas en el espacio de todas las matrices cuadradas, por lo que la conclusión sigue desde el adjunto y determinante son funciones continuas.
Esto funciona en el campo de los reales y los números complejos. ¿Quieres otros campos? Luego argumentar de la siguiente manera. Usted puede escribir su identidad como $n^2$ expresiones de los coeficientes de las matrices. Por lo tanto usted tiene $n^2$ polinomios sobre $n^2$ variables que usted quiere mostrar son idénticamente cero. Pero los polinomios son cero cada vez que se sustituye en cualquiera de los números reales. De ahí que debe ser idéntica a cero.
Deje $A$ $n \times n$ matriz, $A_{i,j}$ $(i,j)$-menores de $A$ $C_{i,j}$ $(i,j)$-cofactor de $A$, que se define como: $$ C_{i,j} = (-1)^{i+j}A_{i,j}. $$ Por definición sabemos que el adjungate de $A$ es: $$ \operatorname{adj} A = [C_{j,i}]. $$
El cofactor de expansión a lo largo de las filas da para todos los $i,j=1,\dots,n$: $$ \sum_{k=1}^{n} a_{i,k} C_{j,k} = \delta_{i,j}\det a, $$ y a lo largo de las columnas da para todos los $i,j=1,\dots,n$: $$ \sum_{k=1}^n a_{k,i}C_{k,j} = \delta_{i,j}\det a, $$ donde $\delta_{i,j}$ es la delta de Kronecker.
Usted puede expresar estas ecuaciones utilizando la definición de la adjungate matriz como la siguiente: $$ A \cdot \operatorname{adj} = \det a \cdot I_n, $$ y $$ \operatorname{adj} \cdot A = \det a \cdot I_n, $$ donde $I_n = [\delta_{i,j}]$ es el identitiy matriz de tamaño $n \times n$. A partir de aquí tenemos que $$ A \cdot \operatorname{adj} = \operatorname{adj} \cdot A = \det a \cdot I_n. $$
Deje $A\in M_n(K)$. Si $K=\mathbb{C}$, a continuación, utilizar la Travis argumento. Si $K$ es un anillo conmutativo con unidad, a continuación, utilizar la referencia (proyecto de Ley de la respuesta)
Sylvester determinante de la identidad
dada anteriormente por Bigbear.
EDIT. @ user3697301
Para $K=\mathbb{C}$, Travis en su comentario a continuación, dio la clave para una completa prueba de (*): $adj(A).A=A.adj(A)=\det(A)I_n$. Si no funciona, entonces usted no puede hacer matemáticas.
Lo que es interesante es que (*) sostiene también al $K$ es un anillo conmutativo con unidad y la clave de la prueba está en el MSE referencia anteriormente.
Desde $A^{-1}=\frac{1}{\mathrm{det}(A)}\mathrm{adj}(A)$ y $A$ representan un operador lineal dimensional finito, por lo que una inversa izquierda es también una razón inversa es decir $AA^{-1}=A^{-1}A$. De esto es sigue fácilmente que $\mathrm{adj}(A)\cdot A = A\cdot\mathrm{adj}(A)$ cancelando el escalar $\frac{1}{\mathrm{det}(A)}$ de ambos lados.