He aquí una prueba.
A continuación, fijamos un anillo conmutativo $\mathbb{K}$ . Todas las matrices son sobre $\mathbb{K}$ .
Teorema 1. Dejemos que $n\in\mathbb{N}$ . Sea $S$ ser un $n\times n$ -matriz. Sea $A$ sea una alternancia $n\times n$ -matriz. (Esto significa que $A^{T}=-A$ y que el entradas diagonales de $A$ son $0$ .) Entonces, cada entrada de la matriz $\left( \operatorname*{adj}S\right) \cdot A\cdot\left( \operatorname*{adj}\left( S^{T}\right) \right) $ es divisible por $\det S$ (en $\mathbb{K}$ ).
[ ACTUALIZACIÓN: Una ligera modificación de la siguiente prueba del Teorema 1 puede ser en la solución del ejercicio 6.42 en mi Notas sobre la combinatoria fundamentos del álgebra , versión del 10 de enero de 2019 . Más precisamente, dicho Ejercicio 6.42 afirma que cada entrada de la matriz $\left(\operatorname{adj} S\right)^T \cdot A \cdot \left(\operatorname{adj} S\right)$ es divisible por $\det S$ Ahora queda sustituir $S^T$ para $S$ y recuerda que $\left(\operatorname{adj} S\right)^T = \operatorname{adj} \left(S^T\right)$ , y esto produce inmediatamente el Teorema 1 anterior. Sin embargo, la siguiente versión (más corta) versión de esta prueba podría ser útil también].
El principal caballo de batalla de la prueba del Teorema 1 es el siguiente resultado, que es esencialmente (hasta algunos molestos cambios de filas y columnas) el Identidad Desnanot-Jacobi utilizado en Condensación Dodgson :
Teorema 2. Dejemos que $n\in\mathbb{N}$ . Sea $S$ ser un $n\times n$ -matriz. En cada $u\in\left\{ 1,2,\ldots,n\right\} $ y $v\in\left\{ 1,2,\ldots ,n\right\} $ dejamos que $S_{\sim u,\sim v}$ sea el $\left( n-1\right) \times\left( n-1\right) $ -que se obtiene tachando el $u$ -y la fila el $v$ -ésima columna en $S$ . (Así, $\operatorname*{adj}S=\left( \left( -1\right) ^{i+j}S_{\sim j,\sim i}\right) _{1\leq i\leq n,\ 1\leq j\leq n}$ .) Para cada cuatro elementos $u$ , $u^{\prime}$ , $v$ y $v^{\prime}$ de $\left\{ 1,2,\ldots,n\right\} $ con $u\neq u^{\prime}$ y $v\neq v^{\prime}$ dejamos que $S_{\left( \sim u,\sim u^{\prime}\right) ,\left( \sim v,\sim v^{\prime }\right) }$ sea el $\left( n-2\right) \times\left( n-2\right) $ -matriz que se obtiene tachando el $u$ -y $u^{\prime}$ -y las filas $v$ -a y $v^{\prime}$ -a columnas en $S$ . Sea $u$ , $i$ , $v$ y $j$ sean cuatro elementos de $\left\{ 1,2,\ldots,n\right\} $ con $u\neq v$ y $i\neq j$ . Entonces, \begin{align} & \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \\ & = \left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] }\det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) . \end{align} Aquí utilizamos la notación de corchetes de Iverson (es decir, escribimos $\left[ \mathcal{A}\right] $ para el valor de verdad de una afirmación $\mathcal{A}$ esto se define por $\left[ \mathcal{A}\right] = \begin{cases} 1, & \text{if }\mathcal{A}\text{ is true;}\\ 0, & \text{if }\mathcal{A}\text{ is false} \end{cases} $ ).
Hay varias formas de demostrar el Teorema 2: conozco un argumento que lo deriva de las relaciones de Plücker (las más sencillas, en las que sólo se baraja una columna). Hay al menos un argumento combinatorio que demuestra el Teorema 2 en el caso caso en que $i = 1$ , $j = n$ , $u = 1$ y $v = n$ (ver El documento de Zeilberger ); el caso general se puede reducir a este caso permutando filas y columnas (aunque es bastante doloroso seguir cómo cambian los signos bajo estas permutaciones). (Véase también un documento de Berliner y Brualdi para un generalización del Teorema 2, con una prueba combinatoria también). Hay al menos una breve demostración algebraica del Teorema 2 (de nuevo en el caso de que $i = 1$ , $j = n$ , $u = 1$ y $v = n$ sólo) que se basa en la división "formal" por $\det S$ (es decir, demuestra que \begin{align} & \det S \cdot \left(\det\left( S_{\sim 1,\sim 1}\right) \cdot\det\left( S_{\sim 2,\sim 2}\right) -\det\left( S_{\sim 1,\sim 2}\right) \cdot\det\left( S_{\sim 2,\sim 1}\right) \right) \\ & = \left(\det S\right)^2 \cdot\det\left( S_{\left( \sim 1,\sim 2\right) ,\left( \sim 1,\sim 2\right) }\right) , \end{align} y luego argumenta que $\det S$ se puede cancelar porque el determinante de a matriz cuadrada "genérica" es invertible). (Esta prueba aparece en la obra de Bressoud Pruebas y confirmaciones También se puede encontrar una versión en francés en Notas de clase de Yoann Gelineau .) Por desgracia, ninguna de estas pruebas parece liberar al lector de la molestia de lidiar con los signos. Tal vez las potencias exteriores sean lo mejor que se puede utilizar aquí, pero no veo cómo. He escrito una prueba sin divisiones (pero laboriosa y molesta) del Teorema 2 en mi notas determinantes más precisamente, he redactado la prueba de la $i < j$ y $u < v$ caso, pero el caso general puede obtenerse fácilmente obtenerlo de la siguiente manera:
Prueba del teorema 2. Tenemos que demostrar la igualdad \begin{align} & \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \\ & = \left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] }\det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) . \label{darij.eq.1} \tag{1} \end{align} Si intercambiamos $u$ con $v$ entonces el lado izquierdo de esta igualdad se multiplica por $-1$ (porque su sustraendo y su minuendo cambian de lugar), mientras que el lado derecho también se multiplica por $-1$ (ya que $S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right)}$ no cambia, pero $\left[ u<v\right]$ o bien cambia de $0$ a $1$ o cambios de $1$ a $0$ ). Por lo tanto, si intercambiamos $u$ con $v$ , entonces la igualdad \eqref {darij.eq.1} no cambia su valor de verdad. Por lo tanto, podemos WLOG suponer que $u \leq v$ (ya que de lo contrario podemos simplemente intercambiar $u$ con $v$ ). Supongamos esto. Por razones similares, podemos WLOG suponer que $i \leq j$ ; también lo asumen. Desde $u \leq v$ y $u \neq v$ , obtenemos $u < v$ . Desde $i \leq j$ y $i \neq j$ obtenemos $i < j$ . Por lo tanto, el Teorema 6.126 en mi Notas sobre la combinatoria fundamentos del álgebra , versión del 10 de enero de 2019 (aplicado a $A=S$ , $p=i$ y $q=j$ ) muestra que \begin{align} & \det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) \\ & = \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \label{darij.eq.2} \tag{2} \end{align} (de hecho, lo que yo llamo $S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }$ esto es lo que estoy llamando $\operatorname{sub}^{1,2,\ldots,\widehat{u},\ldots,\widehat{v},\ldots,n}_{1,2,\ldots,\widehat{i},\ldots,\widehat{j},\ldots,n} A$ en mis notas).
Pero ambos $\left[i < j\right]$ y $\left[u < v\right]$ igual $1$ (ya que $i < j$ y $u < v$ ). Así, $\left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] } = \left(-1\right)^{1+1} = 1$ . Por lo tanto, \begin{align} & \underbrace{\left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] }}_{=1}\det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) \\ & = \det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) \\ & = \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \end{align} (por \eqref {darij.eq.2}). Esto demuestra el Teorema 2. $\blacksquare$
Por último, he aquí un lema obvio:
Lema 3. Dejemos que $n\in\mathbb{N}$ . Para cada $i\in\left\{ 1,2,\ldots ,n\right\} $ y $j\in\left\{ 1,2,\ldots,n\right\} $ , dejemos que $E_{i,j}$ sea el $n\times n$ -matriz cuyo $\left( i,j\right) $ -la quinta entrada es $1$ y cuyo todo otras entradas son $0$ . (Esto se denomina matriz elemental .) Entonces, cada alternancia $n\times n$ -matriz es un $\mathbb{K}$ -combinación lineal de los matrices $E_{i,j}-E_{j,i}$ para las parejas $\left( i,j\right) $ de números enteros que satisfacen $1\leq i<j\leq n$ .
Prueba del teorema 1. Utilizaremos la notación $E_{i,j}$ definida en el lema 3.
Tenemos que demostrar que cada entrada de la matriz $\left( \operatorname*{adj} S\right) \cdot A\cdot\left( \operatorname*{adj}\left( S^{T}\right) \right) $ es divisible por $\det S$ . En otras palabras, tenemos que demostrar que, para cada $\left( u,v\right) \in\left\{ 1,2,\ldots,n\right\} ^{2}$ El $\left( u,v\right) $ -ésima entrada de la matriz $\left( \operatorname*{adj} S\right) \cdot A\cdot\left( \operatorname*{adj}\left( S^{T}\right) \right) $ es divisible por $\det S$ . Por lo tanto, arreglar $\left( u,v\right) \in\left\{ 1,2,\ldots,n\right\} ^{2}$ .
Tenemos que demostrar que el $\left( u,v\right) $ -ésima entrada de la matriz $\left( \operatorname*{adj}S\right) \cdot A\cdot\left( \operatorname*{adj} \left( S^{T}\right) \right) $ es divisible por $\det S$ . Esta afirmación es claramente $\mathbb{K}$ -lineal en $A$ (en el sentido de que si $A_{1}$ y $A_{2}$ son dos alternas $n\times n$ -tales que esta afirmación es válida tanto para para $A=A_{1}$ y para $A=A_{2}$ y si $\lambda_{1}$ y $\lambda_{2}$ son dos elementos de $\mathbb{K}$ entonces esta afirmación también es válida para $A=\lambda_{1}A_{1}+\lambda_{2}A_{2}$ ). Por lo tanto, podemos WLOG suponer que $A$ tiene la forma $E_{i,j}-E_{j,i}$ para un par $\left( i,j\right) $ de números enteros que satisfacen $1\leq i<j\leq n$ (según el lema 3). Supongamos esto, y consideremos este par $\left( i,j\right) $ .
Tenemos $\operatorname*{adj}S=\left( \left( -1\right) ^{x+y}\det\left( S_{\sim y,\sim x}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n}$ y \begin{align} \operatorname*{adj}\left( S^{T}\right) & = \left( \left( -1\right) ^{x+y}\det\left( \underbrace{\left( S^{T}\right) _{\sim y,\sim x} }_{=\left( S_{\sim x,\sim y}\right) ^{T}}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n} \\ & = \left( \left( -1\right) ^{x+y}\underbrace{\det\left( \left( S_{\sim x,\sim y}\right) ^{T}\right) }_{=\det\left( S_{\sim x,\sim y}\right) }\right) _{1\leq x\leq n,\ 1\leq y\leq n} \\ & = \left( \left( -1\right) ^{x+y}\det\left( S_{\sim x,\sim y}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n} . \end{align} Por lo tanto, \begin{align} & \underbrace{\left( \operatorname*{adj}S\right) }_{=\left( \left( -1\right) ^{x+y}\det\left( S_{\sim y,\sim x}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n}}\cdot\underbrace{A}_{=E_{i,j}-E_{j,i}}\cdot \underbrace{\left( \operatorname*{adj}\left( S^{T}\right) \right) }_{=\left( \left( -1\right) ^{x+y}\det\left( S_{\sim x,\sim y}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n}} \\ & =\left( \left( -1\right) ^{x+y}\det\left( S_{\sim y,\sim x}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n}\cdot\left( E_{i,j}-E_{j,i}\right) \\ & \qquad \qquad \cdot\left( \left( -1\right) ^{x+y}\det\left( S_{\sim x,\sim y}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n} \\ & = \left( \left( -1\right) ^{x+i}\det\left( S_{\sim i,\sim x}\right) \cdot\left( -1\right) ^{j+y}\det\left( S_{\sim j,\sim y}\right) \right. \\ & \qquad \qquad \left. -\left( -1\right) ^{x+j}\det\left( S_{\sim j,\sim x}\right) \cdot\left( -1\right) ^{i+y}\det\left( S_{\sim i,\sim y}\right) \right) _{1\leq x\leq n,\ 1\leq y\leq n} . \end{align} Por lo tanto, el $\left( u,v\right) $ -ésima entrada de la matriz $\left( \operatorname*{adj}S\right) \cdot A\cdot\left( \operatorname*{adj}\left( S^{T}\right) \right) $ es \begin{align} & \left( -1\right) ^{u+i}\det\left( S_{\sim i,\sim u}\right) \cdot\left( -1\right) ^{j+v}\det\left( S_{\sim j,\sim v}\right) -\left( -1\right) ^{u+j}\det\left( S_{\sim j,\sim u}\right) \cdot\left( -1\right) ^{i+v} \det\left( S_{\sim i,\sim v}\right) \\ & = \left( -1\right) ^{i+j+u+v}\left( \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \right) . \label{darij.eq.3} \tag{3} \end{align} Tenemos que demostrar que es divisible por $\det S$ . Si $u=v$ entonces esto es obvio (porque si $u=v$ entonces el lado derecho de \eqref {darij.eq.3} es $0$ ). Por lo tanto, WLOG asume que $u\neq v$ . Así, \eqref {darij.eq.3} muestra que el $\left( u,v\right) $ -ésima entrada de la matriz $\left( \operatorname*{adj}S\right) \cdot A\cdot\left( \operatorname*{adj}\left( S^{T}\right) \right) $ es \begin{align} & \left( -1\right) ^{i+j+u+v}\underbrace{\left( \det\left( S_{\sim i,\sim u}\right) \cdot\det\left( S_{\sim j,\sim v}\right) -\det\left( S_{\sim i,\sim v}\right) \cdot\det\left( S_{\sim j,\sim u}\right) \right) }_{\substack{=\left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] }\det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) \\\text{(by Theorem 2)}}} \\ & = \left( -1\right) ^{i+j+u+v}\left( -1\right) ^{\left[ i<j\right] +\left[ u<v\right] }\det S\cdot\det\left( S_{\left( \sim i,\sim j\right) ,\left( \sim u,\sim v\right) }\right) , \end{align} que es claramente divisible por $\det S$ . El teorema 1 queda así demostrado. $\blacksquare$
0 votos
No es cierto para $n=3$ (donde tener un factor de $\det S$ significaría ser $0$ ). Dicho esto, hacemos (para $n=3$ ) tienen $\left(\operatorname{adj} S\right) A \left(\operatorname{adj} S\right) = h \left(\operatorname{adj} S\right)$ , donde $h$ es un determinado escalar que depende de $A$ y $S$ .
1 votos
La conjetura es válida incluso para $n$ Sin embargo. Mejor aún: $\operatorname{adj} S$ es divisible por el Pfaffian $\operatorname{Pf} S$ (y como saben, tenemos $\left(\operatorname{Pf} S\right)^2 = \det S$ ). Publicaré esto como respuesta una vez que haya encontrado una buena prueba que no utilice el Nullstellensatz de Hilbert.
0 votos
@darijgrinberg Me interesaría la prueba de que hace utilizarlo, si se puede resumir
1 votos
Resumen de la demostración mediante el Nullstellensatz: Trabajemos sobre un campo algebraicamente cerrado. Entonces, $\operatorname{Pf} S$ es un polinomio irreducible en las entradas sobre $S$ (creo que esto está claro, aunque no estoy 100% seguro), y siempre que desaparece, también lo hacen todas las entradas de $\operatorname{adj} S$ (ya que la desaparición de $\operatorname{Pf} S$ muestra que $\operatorname{rank} S < 2n$ y por lo tanto $\operatorname{rank} S \leq 2n-2$ ya que el rango de una matriz asimétrica debe ser par). El lema de Gauss se puede utilizar entonces para extraer la divisibilidad del campo algebraicamente cerrado a cualquier anillo.
0 votos
De todos modos, me parece que tenemos algo explícito: Si $S$ es una simetría sesgada $n\times n$ -matriz con $n$ incluso, entonces $\operatorname{adj} S = \operatorname{Pf} S \cdot \operatorname{Pdj} S$ , donde $\operatorname{Pdj} S$ es el adjunto pfaffiano de $S$ (es decir, el $n\times n$ -matriz cuyo $\left(i,j\right)$ -la quinta entrada es $\left(-1\right)^{i+j+\left[i>j\right]} p_{i,j}\left(S\right)$ , donde $p_{i,j}\left(S\right)$ es el pfaffiano de la matriz obtenida al eliminar el $i$ -y $j$ -y las filas $i$ -y $j$ -a las columnas de $S$ ). Aquí, $\left[i>j\right]$ significa $1$ si $i>j$ ...
0 votos
... y $0$ de otra manera. De hecho, incluso veo cómo demostrar esto, aunque no me gusta demasiado la prueba.
0 votos
Perdón por la falta de claridad, S es simétrico y A sesgado-simétrico. Por lo tanto, se debe mantener para todo n.
0 votos
Espera, ¿en serio? OK, esa es una pregunta totalmente diferente. ¿Puedes abrir una nueva pregunta para ello? Porque esta todavía ofrece cosas interesantes que hacer.
0 votos
He editado la pregunta.
0 votos
Creo que la pregunta debería incluir sus dos partes, o debería haber 2 preguntas.
0 votos
Sólo me interesa esta pregunta, pero es más que bienvenida la segunda.