En primer lugar, quiero un poco de la verificación de la validez de mi enfoque para este detonante pregunta de evaluación:
Si $A,B\in M_n(K)$, $K$ es un campo de número (en el sentido de que $\Bbb Q$ es el más pequeño posible), y $AB=BA$, probar este determinat igualdad $$ \begin{vmatrix} A & -B \\ B & A \end{vmatrix} =|A^2+B^2| $$
Mi planteamiento:
Caso 1: cuando el $A=(a_{ij})$ es no-singular
Considere la posibilidad de $$ \begin{bmatrix} I & O \\ -B & A \end{bmatrix} \begin{bmatrix} A & -B \\ B & A \end{bmatrix}= \begin{bmatrix} A & -B \\ O & A^2+B^2 \end{bmatrix} $$ por lo tanto $$ \det \begin{bmatrix} I & O \\ -B & A \end{bmatrix} \det \begin{bmatrix} A & -B \\ B & A \end{bmatrix}= \det \begin{bmatrix} A & -B \\ O & A^2+B^2 \end{bmatrix} $$ por expansión de Laplace, es claro que $$ \begin{vmatrix} A & -B \\ B & A \end{vmatrix}=\frac1{|A|}\cdot|A|\cdot |A^2+B^2|=|A^2+B^2| $$
Caso 2: cuando el $A$ es singular
Considere la posibilidad de $\require{cancel} A(t)\xcancel{=(a_{ij}+t)}=A+It$, ya que el $A$ es singular, tenemos $A(0)=0$. Es decir, $0$ es una raíz de $A(t)$, que consideramos ahora como (no-cero) polinomio w.r.t. el parámetro $t$. Desde cualquier no-cero del polinomio tiene sólo un número finito de raíces en $\Bbb C$, es claro que existe una positiva $\delta$ tal que $t\in (-\delta,0)\cup(0,\delta)$ implica $A(t)\ne 0$, de lo contrario no sería una secuencia infinita que consta de $A(t)$'s de las raíces que converge a $0$. Así que si tomamos cualquier $t\in (-\delta,0)\cup(0,\delta)$ y reemplace $A$ $A(t)$ en el caso 1, vamos a obtener $$ \begin{vmatrix} A(t) & -B \\ B & A(t) \end{vmatrix}=|A^2(t)+B^2| $$ Sin embargo, esta es también una verdadera función polinomial y por lo tanto continua en $t=0$, por lo tanto $$ \begin{vmatrix} A & -B \\ B & A \end{vmatrix}= \lim_{t\to 0}\begin{vmatrix} A(t) & -B \\ B & A(t) \end{vmatrix}= |A^2(0)+B^2|=|A^2+B^2| $$
Segundo, si mi deducción es sonido, es también adecuado para extender similar convertir-en singular-para-no-singular trucos en otra parte (excepto cuando el campo subyacente $K$ no es un campo de número en el sentido usual de la palabra, dicen, $K$ es un campo finito)? Por ejemplo, hay un ejercicio marcado como "difícil" en mi libro de texto
Para $n\times n$ matrices $A,B$, probar $$(AB)^*=B^*A^*$$ $(A^*)$ indica el medico adjunto de la matriz transpuesta de la cofactor de la matriz) de $A$.
Sé que está marcado como "difícil" debido a la posibilidad de que $A$ o $B$ puede ser singular, porque si ambos son no-singular, la prueba será muy fácil. Sin embargo, si puedo aplicar mi anterior trucos aquí-como hacer algunos $A(u),B(v)$ cosas, y dándome cuenta de que cada entrada de $(AB)^*$ es depender continuamente de todas las entradas de $A(u),B(v)$, respectivamente depender continuamente de $u$ $v$ debido a la forma en que me constructo $A(u),B(v)$ -- ¿no debe ser muy fácil de extender el "no-singular" caso a la "singular" y así completar la totalidad de la prueba?
Más aún, si hemos probado una matriz/det igualdad para un montón de no-singulares de matrices como $A,B,C\cdots$, y esta igualdad sólo implica las cosas (como $\det$, pero no $\text{rank}$ del curso) que están continuamente depende de cada entrada de estas matrices, será natural para extender el resultado a todos los casos, si las matrices son de singular o no?
Cualquier rectificación/inspiración/aclaración sobre mis pensamientos es bienvenida. Saludos!
EIDT
@user1551 ha señalado que en mi enfoque de la si $A(t)\equiv 0$ no tendría que ser una falacia, y se ha sugerido que puede ser fijo si puedo reemplazar mi $A(t)$$A+It$, la cual no será en ningún caso un 0 polinomio.
EDITAR
O, ¿hay algún ejemplo de la matriz de las ecuaciones (ambos lados sólo incluyen la matriz de la adición y la multiplicación, pero no hay inversos) donde invertibility hace toda la diferencia?