6 votos

Productos de matrices adjuntas

Dejemos que $S$ y $A$ sea una simétrica y una asimétrica $n \times n$ matriz sobre $\mathbb{R}$ respectivamente. Al calcular (numéricamente) el producto $S^{-1} A S^{-1}$ Sigo recibiendo el factor $\det S$ en el denominador, mientras que yo esperaría obtener el cuadrado $$S^{-1} A S^{-1} = \frac{(\text{adj }S) A (\text{adj }S)}{(\det S)^2},$$ donde $\text{adj }S$ es el adjunto de $S$ .

¿Hay alguna manera de demostrar que la combinación $(\text{adj }S) A (\text{adj }S)$ ya contiene un factor de $\det S$ ?

0 votos

No es cierto para $n=3$ (donde tener un factor de $\det S$ significaría ser $0$ ). Dicho esto, hacemos (para $n=3$ ) tienen $\left(\operatorname{adj} S\right) A \left(\operatorname{adj} S\right) = h \left(\operatorname{adj} S\right)$ , donde $h$ es un determinado escalar que depende de $A$ y $S$ .

1 votos

La conjetura es válida incluso para $n$ Sin embargo. Mejor aún: $\operatorname{adj} S$ es divisible por el Pfaffian $\operatorname{Pf} S$ (y como saben, tenemos $\left(\operatorname{Pf} S\right)^2 = \det S$ ). Publicaré esto como respuesta una vez que haya encontrado una buena prueba que no utilice el Nullstellensatz de Hilbert.

0 votos

@darijgrinberg Me interesaría la prueba de que hace utilizarlo, si se puede resumir

2voto

Spencer Puntos 48

Supongamos que $\det(S)=0$ . Entonces $adj(S)$ tiene rango $1$ y es simétrico; entonces $adj(S)=avv^T$ donde $a\in \mathbb{R}$ y $v$ es un vector. Así, $adj(S)Aadj(S)=a^2v(v^TAv)v^T$ . Desde $A$ es simétrica, $v^TAv=0$ y $adj(S)Aadj(S)=0$ . Utilizamos el método de Darij; aquí, la condición es que $\det(S)$ es un polinomio irreducible cuando $S$ es una matriz simétrica genérica; si es verdadera, entonces $\det(S)$ es un factor de cada entrada de $adj(S)Aadj(S)$ .

EDITAR 1. Para la prueba de que $\det(S)$ es un polinomio irreducible cuando $S$ es una matriz simétrica genérica, cf. https://mathoverflow.net/questions/50362/irreducibility-of-determinant-of-symmetric-matrix ¡y hemos terminado!

EDIT 2. @ darij grinberg , hola Darij, he leído rápidamente tu Teorema 1 (para $K$ un anillo conmutativo con la unidad) y creo que tu prueba funciona; sin embargo, ¡es complicada! Creo (como has escrito en tu comentario anterior) que basta con demostrar el resultado cuando $K$ es un campo; sin embargo, no sé cómo escribirlo con rigor...

PASO 1. $K$ es un campo. Si $\det(S)=0$ entonces $adj(S)=vw^T$ y $adj(S).A.adj(S)=v(w^TAw)v^T=0$ (incluso si $char(K)=2$ ). Dado que $\det(.)$ es irreducible sobre $M_n(K)$ concluimos lo mismo que en el caso anterior.

PASO 2. Dejemos que $S=[s_{ij}],A=[a_{i,j}]$ . Trabajamos en el anillo de polinomios $\mathbb{Z}[(s_{i,j})_{i,j},(a_{i,j})_{i<j}]$ en los indeterminados $(s_{i,j}),(a_{i,j})$ . Este anillo no tiene divisores de cero, es factorial y su característica es $0$ y hasta es integralmente cerrado. Es evidente que las entradas de $adj(S).A.adj(S)$ están en $\mathbb{Z}[(s_{i,j})_{i,j},(a_{i,j})_{i<j}]$ además tienen formalmente $\det(S)$ como factor.

Ahora bien, si $K$ es un anillo conmutativo con la unidad, debemos utilizar un argumento usando una variante del lema de Gauss que muestra que el factor $\det(S)$ se mantiene sobre $K$ . ¿Qué forma del lema se puede utilizar y cómo escribirlo correctamente?

Sólo veo que el OP toma para sí el chevrón verde; somos nuestros mejores defensores

0 votos

¿Por qué el rango de adj S = 1 para det S = 0?

0 votos

¡Es cierto para cualquier matriz !

0 votos

De hecho, el rango es 0 o 1

0voto

jlleblanc Puntos 2957

He aquí una prueba.

A continuación, fijamos un anillo conmutativo $\mathbb{K}$ . Todas las matrices son sobre $\mathbb{K}$ .

Teorema 1. Dejemos que $n\in\mathbb{N}$ . Sea $S$ ser un $n\times n$ -matriz. Sea $A$ sea una alternancia $n\times n$ -matriz. (Esto significa que $A^{T}=-A$ y que el entradas diagonales de $A$ son $0$ .) Entonces, cada entrada de la matriz $\left( \operatorname*{adj}S\right) \cdot A\cdot\left( \operatorname*{adj}\left( S^{T}\right) \right) $ es divisible por $\det S$ (en $\mathbb{K}$ ).

[ ACTUALIZACIÓN: Una ligera modificación de la siguiente prueba del Teorema 1 puede ser en la solución del ejercicio 6.42 en mi Notas sobre la combinatoria fundamentos del álgebra , versión del 10 de enero de 2019 . Más precisamente, dicho Ejercicio 6.42 afirma que cada entrada de la matriz $\left(\operatorname{adj} S\right)^T \cdot A \cdot \left(\operatorname{adj} S\right)$ es divisible por $\det S$ Ahora queda sustituir $S^T$ para $S$ y recuerda que $\left(\operatorname{adj} S\right)^T = \operatorname{adj} \left(S^T\right)$ , y esto produce inmediatamente el Teorema 1 anterior. Sin embargo, la siguiente versión (más corta) versión de esta prueba podría ser útil también].

El principal caballo de batalla de la prueba del Teorema 1 es el siguiente resultado, que es esencialmente (hasta algunos molestos cambios de filas y columnas) el Identidad Desnanot-Jacobi utilizado en Condensación Dodgson :

Teorema 2. Dejemos que $n\in\mathbb{N}$ . Sea $S$ ser un $n\times n$ -matriz. En cada $u\in\left\{ 1,2,\ldots,n\right\} $ y $v\in\left\{ 1,2,\ldots ,n\right\} $ dejamos que $S_{\sim u,\sim v}$ sea el $\left( n-1\right) \times\left( n-1\right) $ -que se obtiene tachando el $u$ -y la fila el $v$ -ésima columna en $S$ . (Así, $\operatorname*{adj}S=\left( \left( -1\right) ^{i+j}S_{\sim j,\sim i}\right) _{1\leq i\leq n,\ 1\leq j\leq n}$ .) Para cada cuatro elementos $u$ , $u^{\prime}$ , $v$ y $v^{\prime}$ de $\left\{ 1,2,\ldots,n\right\} $ con $u\neq u^{\prime}$ y $v\neq v^{\prime}$ dejamos que $S_{\left( \sim u,\sim u^{\prime}\right) ,\left( \sim v,\sim v^{\prime }\right) }$ sea el $\left( n-2\right) \times\left( n-2\right) $ -matriz que se obtiene tachando el $u$ -y $u^{\prime}$ -y las filas $v$ -a y $v^{\prime}$ -a columnas en $S$ . Sea $u$ , $i$ , $v$ y $j$ sean cuatro elementos de $\left\{ 1,2,\ldots,n\right\} $ con $u\neq v$ y $i\neq j$ . Entonces, \begin{align} & \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \\ & = \left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] }\det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) . \end{align} Aquí utilizamos la notación de corchetes de Iverson (es decir, escribimos $\left[ \mathcal{A}\right] $ para el valor de verdad de una afirmación $\mathcal{A}$ esto se define por $\left[ \mathcal{A}\right] = \begin{cases} 1, & \text{if }\mathcal{A}\text{ is true;}\\ 0, & \text{if }\mathcal{A}\text{ is false} \end{cases} $ ).

Hay varias formas de demostrar el Teorema 2: conozco un argumento que lo deriva de las relaciones de Plücker (las más sencillas, en las que sólo se baraja una columna). Hay al menos un argumento combinatorio que demuestra el Teorema 2 en el caso caso en que $i = 1$ , $j = n$ , $u = 1$ y $v = n$ (ver El documento de Zeilberger ); el caso general se puede reducir a este caso permutando filas y columnas (aunque es bastante doloroso seguir cómo cambian los signos bajo estas permutaciones). (Véase también un documento de Berliner y Brualdi para un generalización del Teorema 2, con una prueba combinatoria también). Hay al menos una breve demostración algebraica del Teorema 2 (de nuevo en el caso de que $i = 1$ , $j = n$ , $u = 1$ y $v = n$ sólo) que se basa en la división "formal" por $\det S$ (es decir, demuestra que \begin{align} & \det S \cdot \left(\det\left( S_{\sim 1,\sim 1}\right) \cdot\det\left( S_{\sim 2,\sim 2}\right) -\det\left( S_{\sim 1,\sim 2}\right) \cdot\det\left( S_{\sim 2,\sim 1}\right) \right) \\ & = \left(\det S\right)^2 \cdot\det\left( S_{\left( \sim 1,\sim 2\right) ,\left( \sim 1,\sim 2\right) }\right) , \end{align} y luego argumenta que $\det S$ se puede cancelar porque el determinante de a matriz cuadrada "genérica" es invertible). (Esta prueba aparece en la obra de Bressoud Pruebas y confirmaciones También se puede encontrar una versión en francés en Notas de clase de Yoann Gelineau .) Por desgracia, ninguna de estas pruebas parece liberar al lector de la molestia de lidiar con los signos. Tal vez las potencias exteriores sean lo mejor que se puede utilizar aquí, pero no veo cómo. He escrito una prueba sin divisiones (pero laboriosa y molesta) del Teorema 2 en mi notas determinantes más precisamente, he redactado la prueba de la $i < j$ y $u < v$ caso, pero el caso general puede obtenerse fácilmente obtenerlo de la siguiente manera:

Prueba del teorema 2. Tenemos que demostrar la igualdad \begin{align} & \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \\ & = \left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] }\det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) . \label{darij.eq.1} \tag{1} \end{align} Si intercambiamos $u$ con $v$ entonces el lado izquierdo de esta igualdad se multiplica por $-1$ (porque su sustraendo y su minuendo cambian de lugar), mientras que el lado derecho también se multiplica por $-1$ (ya que $S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right)}$ no cambia, pero $\left[ u<v\right]$ o bien cambia de $0$ a $1$ o cambios de $1$ a $0$ ). Por lo tanto, si intercambiamos $u$ con $v$ , entonces la igualdad \eqref {darij.eq.1} no cambia su valor de verdad. Por lo tanto, podemos WLOG suponer que $u \leq v$ (ya que de lo contrario podemos simplemente intercambiar $u$ con $v$ ). Supongamos esto. Por razones similares, podemos WLOG suponer que $i \leq j$ ; también lo asumen. Desde $u \leq v$ y $u \neq v$ , obtenemos $u < v$ . Desde $i \leq j$ y $i \neq j$ obtenemos $i < j$ . Por lo tanto, el Teorema 6.126 en mi Notas sobre la combinatoria fundamentos del álgebra , versión del 10 de enero de 2019 (aplicado a $A=S$ , $p=i$ y $q=j$ ) muestra que \begin{align} & \det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) \\ & = \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \label{darij.eq.2} \tag{2} \end{align} (de hecho, lo que yo llamo $S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }$ esto es lo que estoy llamando $\operatorname{sub}^{1,2,\ldots,\widehat{u},\ldots,\widehat{v},\ldots,n}_{1,2,\ldots,\widehat{i},\ldots,\widehat{j},\ldots,n} A$ en mis notas).

Pero ambos $\left[i < j\right]$ y $\left[u < v\right]$ igual $1$ (ya que $i < j$ y $u < v$ ). Así, $\left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] } = \left(-1\right)^{1+1} = 1$ . Por lo tanto, \begin{align} & \underbrace{\left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] }}_{=1}\det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) \\ & = \det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) \\ & = \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \end{align} (por \eqref {darij.eq.2}). Esto demuestra el Teorema 2. $\blacksquare$

Por último, he aquí un lema obvio:

Lema 3. Dejemos que $n\in\mathbb{N}$ . Para cada $i\in\left\{ 1,2,\ldots ,n\right\} $ y $j\in\left\{ 1,2,\ldots,n\right\} $ , dejemos que $E_{i,j}$ sea el $n\times n$ -matriz cuyo $\left( i,j\right) $ -la quinta entrada es $1$ y cuyo todo otras entradas son $0$ . (Esto se denomina matriz elemental .) Entonces, cada alternancia $n\times n$ -matriz es un $\mathbb{K}$ -combinación lineal de los matrices $E_{i,j}-E_{j,i}$ para las parejas $\left( i,j\right) $ de números enteros que satisfacen $1\leq i<j\leq n$ .

Prueba del teorema 1. Utilizaremos la notación $E_{i,j}$ definida en el lema 3.

Tenemos que demostrar que cada entrada de la matriz $\left( \operatorname*{adj} S\right) \cdot A\cdot\left( \operatorname*{adj}\left( S^{T}\right) \right) $ es divisible por $\det S$ . En otras palabras, tenemos que demostrar que, para cada $\left( u,v\right) \in\left\{ 1,2,\ldots,n\right\} ^{2}$ El $\left( u,v\right) $ -ésima entrada de la matriz $\left( \operatorname*{adj} S\right) \cdot A\cdot\left( \operatorname*{adj}\left( S^{T}\right) \right) $ es divisible por $\det S$ . Por lo tanto, arreglar $\left( u,v\right) \in\left\{ 1,2,\ldots,n\right\} ^{2}$ .

Tenemos que demostrar que el $\left( u,v\right) $ -ésima entrada de la matriz $\left( \operatorname*{adj}S\right) \cdot A\cdot\left( \operatorname*{adj} \left( S^{T}\right) \right) $ es divisible por $\det S$ . Esta afirmación es claramente $\mathbb{K}$ -lineal en $A$ (en el sentido de que si $A_{1}$ y $A_{2}$ son dos alternas $n\times n$ -tales que esta afirmación es válida tanto para para $A=A_{1}$ y para $A=A_{2}$ y si $\lambda_{1}$ y $\lambda_{2}$ son dos elementos de $\mathbb{K}$ entonces esta afirmación también es válida para $A=\lambda_{1}A_{1}+\lambda_{2}A_{2}$ ). Por lo tanto, podemos WLOG suponer que $A$ tiene la forma $E_{i,j}-E_{j,i}$ para un par $\left( i,j\right) $ de números enteros que satisfacen $1\leq i<j\leq n$ (según el lema 3). Supongamos esto, y consideremos este par $\left( i,j\right) $ .

Tenemos $\operatorname*{adj}S=\left( \left( -1\right) ^{x+y}\det\left( S_{\sim y,\sim x}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n}$ y \begin{align} \operatorname*{adj}\left( S^{T}\right) & = \left( \left( -1\right) ^{x+y}\det\left( \underbrace{\left( S^{T}\right) _{\sim y,\sim x} }_{=\left( S_{\sim x,\sim y}\right) ^{T}}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n} \\ & = \left( \left( -1\right) ^{x+y}\underbrace{\det\left( \left( S_{\sim x,\sim y}\right) ^{T}\right) }_{=\det\left( S_{\sim x,\sim y}\right) }\right) _{1\leq x\leq n,\ 1\leq y\leq n} \\ & = \left( \left( -1\right) ^{x+y}\det\left( S_{\sim x,\sim y}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n} . \end{align} Por lo tanto, \begin{align} & \underbrace{\left( \operatorname*{adj}S\right) }_{=\left( \left( -1\right) ^{x+y}\det\left( S_{\sim y,\sim x}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n}}\cdot\underbrace{A}_{=E_{i,j}-E_{j,i}}\cdot \underbrace{\left( \operatorname*{adj}\left( S^{T}\right) \right) }_{=\left( \left( -1\right) ^{x+y}\det\left( S_{\sim x,\sim y}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n}} \\ & =\left( \left( -1\right) ^{x+y}\det\left( S_{\sim y,\sim x}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n}\cdot\left( E_{i,j}-E_{j,i}\right) \\ & \qquad \qquad \cdot\left( \left( -1\right) ^{x+y}\det\left( S_{\sim x,\sim y}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n} \\ & = \left( \left( -1\right) ^{x+i}\det\left( S_{\sim i,\sim x}\right) \cdot\left( -1\right) ^{j+y}\det\left( S_{\sim j,\sim y}\right) \right. \\ & \qquad \qquad \left. -\left( -1\right) ^{x+j}\det\left( S_{\sim j,\sim x}\right) \cdot\left( -1\right) ^{i+y}\det\left( S_{\sim i,\sim y}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n} . \end{align} Por lo tanto, el $\left( u,v\right) $ -ésima entrada de la matriz $\left( \operatorname*{adj}S\right) \cdot A\cdot\left( \operatorname*{adj}\left( S^{T}\right) \right) $ es \begin{align} & \left( -1\right) ^{u+i}\det\left( S_{\sim i,\sim u}\right) \cdot\left( -1\right) ^{j+v}\det\left( S_{\sim j,\sim v}\right) -\left( -1\right) ^{u+j}\det\left( S_{\sim j,\sim u}\right) \cdot\left( -1\right) ^{i+v} \det\left( S_{\sim i,\sim v}\right) \\ & = \left( -1\right) ^{i+j+u+v}\left( \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \right) . \label{darij.eq.3} \tag{3} \end{align} Tenemos que demostrar que es divisible por $\det S$ . Si $u=v$ entonces esto es obvio (porque si $u=v$ entonces el lado derecho de \eqref {darij.eq.3} es $0$ ). Por lo tanto, WLOG asume que $u\neq v$ . Así, \eqref {darij.eq.3} muestra que el $\left( u,v\right) $ -ésima entrada de la matriz $\left( \operatorname*{adj}S\right) \cdot A\cdot\left( \operatorname*{adj}\left( S^{T}\right) \right) $ es \begin{align} & \left( -1\right) ^{i+j+u+v}\underbrace{\left( \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \right) }_{\substack{=\left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] }\det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) \\\text{(by Theorem 2)}}} \\ & = \left( -1\right) ^{i+j+u+v}\left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] }\det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) , \end{align} que es claramente divisible por $\det S$ . El teorema 1 queda así demostrado. $\blacksquare$

0 votos

Por favor, vea mi respuesta. ¿Coincide con su respuesta?

0 votos

@LBO: Me temo que no puedo decirlo, ya que no conozco la notación tensorial que estás utilizando.

0voto

LBO Puntos 290

He conseguido demostrar la afirmación de forma pedestre. Me limitaré a presentar el resultado final porque la prueba es bastante complicada y probablemente sólo me interese a mí.

A continuación, utilizaré la notación de índice (abstracto) y la convención de suma de Einstein.

En primer lugar, el determinante de un cuadrado $n \times n$ matriz $S$ viene dada por

$$\det S = \frac{1}{n!} \epsilon_{a_1 \ldots a_n} \epsilon_{b_1 \ldots b_n} S_{b_1 a_1} \ldots S_{b_n a_n}.$$

En segundo lugar, el adjunto de $S$ viene dada por una expresión similar $$(\operatorname{ajd} S)_{a_1 b_1} = \frac{1}{(n-1)!} \epsilon_{a_1 a_2 \ldots a_n} \epsilon_{b_1 b_2 \ldots b_n} S_{b_2 a_2} \ldots S_{b_n a_n}.$$

Por último, necesitaremos el otro tensor de orden $4$ definido como $$(\operatorname{ajd}_2 S)_{a_1 a_2,b_1 b_2} = \frac{1}{(n-2)!} \epsilon_{a_1 a_2 a_3 \ldots a_n} \epsilon_{b_1 b_2 b_3 \ldots b_n} S_{b_3 a_3} \ldots S_{b_n a_n}.$$

Entonces se cumple la siguiente identidad $$((S^{-1}) A (S^{-1})^{T})_{ab} = \frac{1}{2} \frac{(\operatorname{ajd}_2 S)_{ab,cd} A_{cd}}{\det S}$$ para $A$ asimétrico.

-3voto

TrialAndError Puntos 25444

Porque $S\mbox{adj}(S)=\mbox{adj}(S)S=\mbox{det}(S)I$ entonces $S$ es invertible si $\mbox{det}(S)\ne 0$ y, en ese caso $$ S^{-1} = \frac{1}{\mbox{det}(S)}\mbox{adj}(S). $$ Por lo tanto, $$ S^{-1}AS^{-1} = \frac{1}{\mbox{det}(S)^{2}}\mbox{adj}(S)\,A\,\mbox{adj}(S). $$

0 votos

Sí, gracias, soy consciente de ello. Me gustaría probar que el numerador de su última expressio contiene det S.

0 votos

No entiendo muy bien lo que quieres decir con que contiene $\mbox{det}(S)$ . Hay determinantes enterrados en los inversos de la izquierda que coinciden con los determinantes de la derecha. ¿Hay algo en particular que te moleste de la expresión?

0 votos

Ok, para decirlo de otra manera, quiero demostrar que, siempre que det S = 0, (adj S) A (adj S) también desaparece.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X