10 votos

Determinante de una suma de matrices

Me gustaría saber si la fórmula siguiente es conocida y obtener algunas referencias para ello.

Todavía no sé cómo probarlo (y estoy trabajando en ello), pero estoy bastante seguro de su validez, después de haber realizado algunos cálculos simbólicos con Maple.

Dado$n$% matrices cuadradas$A_1,\ldots,A_n$ de tamaño$m<n$:

ps

Por ejemplo, si$$\sum_{p=1}^n(-1)^p\sum_{1\leqslant i_1<\cdots<i_p\leqslant n}\det(A_{i_1}+\cdots+A_{i_p})=0$ son tres$A,B,C$ matrices, entonces:

ps

5voto

jlleblanc Puntos 2957

Permítanme describir otras dos pruebas. Permítanme en primer lugar cambiar el nombre de su $m$ $n$ $n$ y $r$, ya que me resulta confuso cuando se $n$ no es el tamaño de la plaza las matrices involucradas. Así que usted está reclamando el siguiente:

Teorema 1. Deje $\mathbb{K}$ ser un anillo conmutativo. Deje $n\in\mathbb{N}$ y $r\in\mathbb{N}$ ser tal que $n<r$. Deje $A_{1},A_{2},\ldots,A_{r}$ ser $n\times n$-matrices de más de $\mathbb{K}$. A continuación, \begin{equation} \sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }\det\left( \sum\limits_{i\in I}A_{i}\right) =0. \end{equation}

Aviso que me he metido en uno más pequeño cambio en su fórmula: he agregado el sumando de a $I=\varnothing$. Este sumando no suele aportar mucho, debido a que $\det\left( \sum\limits_{i\in\varnothing}A_{i}\right) =\det\left( 0_{n\times n}\right) $ is usually $0$... unless $n=0$, en cuyo caso contribuye $\det\left( 0_{0\times0}\right) =1$ (tenga en cuenta que hay sólo una $0\times0$-de la matriz y su determinante es $1$), y el conjunto de la igualdad falla si esta sumando que falta.

Una primera prueba del Teorema 1 que aparece en (la solución) Ejercicio 5.48 en mi Notas sobre la combinatoria fundamentos de álgebra, la versión de 18 de noviembre de 2017. (Para obtener Teorema 1 de este ejercicio, establezca $G=\left\{ 1,2,\ldots,r\right\} $.) El la idea principal de esta prueba es que el Teorema 1 implica no solamente por los factores determinantes, pero para cada una de las $n!$ de los productos que componen el determinante (suponiendo que definir el determinante de una $n\times n$-matriz como una suma sobre el $n!$ permutaciones); esto es demostrado por una alternancia de signos de suma y de la explotación de discretos "interferencia destructiva" (es decir, el hecho de que si $G$ es un finito establecer y $R$ es un subconjunto de a$G$, $\sum\limits_{\substack{I\subseteq G;\\R\subseteq I}}\left( -1\right) ^{\left\vert I\right\vert }= \begin{cases} 1, & \text{if }R=G;\\ 0, & \text{if }R\neq G \end{casos} $).

Permítanme ahora esbozar una segunda prueba del Teorema 1, la cual muestra que no es realmente acerca de los determinantes. Es acerca de las diferencias finitas, en un poco más contexto general de lo que se suele estudiar.

Deje $M$ cualquier $\mathbb{K}$-módulo. El dual $\mathbb{K}$-módulo $M^{\vee }=\operatorname{Hom}_{\mathbb{K}}\left( M,\mathbb{K}\right) $ de $M$ se compone de todos los $\mathbb{K}$-lineal mapas de $M\rightarrow\mathbb{K}$. Por lo tanto, $M^{\vee}$ $\mathbb{K}$- submódulo de la $\mathbb{K}$-módulo de $\mathbb{K}^{M}$ de todos los mapas de $M\rightarrow\mathbb{K}$. El $\mathbb{K} $-module $\mathbb{K}^{M}$ becomes a commutative $\mathbb{K}$-álgebra (acabamos de definir la multiplicación para ser pointwise, es decir, el producto $fg$ de los dos mapas $f,g:M\rightarrow\mathbb{K}$ envía cada una de las $m\in M$ $f\left( m\right) g\left( m\right) \in\mathbb{K}$).

Para cualquier $d\in\mathbb{N}$, dejamos $M^{\vee d}$ $\mathbb{K}$- lineal span de todos los elementos de a $\mathbb{K}^{M}$ de la forma $f_{1}f_{2}\cdots f_{d}$ $f_{1},f_{2},\ldots,f_{d}\in M^{\vee}$. (Para $d=0$, el único elemento en común es el vacío del producto $1$, lo $M^{\vee0}$ consiste en la constante de mapas $M\rightarrow\mathbb{K}$. Observe también que $M^{\vee1}=M^{\vee}$.) Los elementos de $M^{\vee d}$ se llama homogénea de funciones polinómicas de grado $d$ en $M$. La idea subyacente es que si $M$ es un servicio gratuito de $\mathbb{K}$-módulo con un dado, entonces los elementos de a $M^{\vee d}$ son los mapas $M\rightarrow \mathbb{K}$ que puede ser expresado como polinomios de coordinar las funciones de con respecto a esta base; pero el $\mathbb{K}$-módulo de $M^{\vee d}$ hace perfecto sentido si o no $M$ es gratis.

También nos hemos fijado $M^{\vee d}=0$ (el cero $\mathbb{K}$-submódulo de $\mathbb{K} ^{M}$) for $d<0$.

Para cualquier $x\in M$, podemos definir el $\mathbb{K}$-lineal mapa de $S_{x}:\mathbb{K} ^{M}\rightarrow\mathbb{K}^{M}$ mediante el establecimiento de \begin{equation} \left( S_{x}f\right) \left( m\right) =f\left( m+x\right) \qquad\text{for each }m\in M\text{ and }f\in\mathbb{K}^{M}. \end{equation} Este mapa $S_{x}$ se llama un cambio de operador. Es un endomorfismo de la $\mathbb{K}$-álgebra $\mathbb{K}^{M}$ y conserva todo el $\mathbb{K} $-submodules $M^{\vee d}$ (for all $d\in\mathbb{Z}$).

Además, para cualquier $x\in M$, podemos definir el $\mathbb{K}$-lineal mapa de $\Delta _{x}:\mathbb{K}^{M}\rightarrow\mathbb{K}^{M}$ by $\Delta_{x} =\operatorname*{id}-S_{x}$. Por lo tanto, \begin{equation} \left( \Delta_{x}f\right) \left( m\right) =f\left( m\right) -f\left( m+x\right) \qquad\text{for each }m\in M\text{ and }f\in\mathbb{K}^{M}. \end{equation} Este mapa $\Delta_{x}$ se llama un operador diferencia. El siguiente crucial hecho demuestra que "disminuye el grado de un polinomio de la función, del mismo modo cómo diferenciación disminuye el grado de un polinomio:

Lema 2. Deje $x \in M$. Entonces, $\Delta_{x}M^{\vee d}\subseteq M^{\v\a la izquierda( d-1\right) }$ for each $d\in\mathbb{Z}$.

[Los más fáciles de la prueba del Lema 2 es por inducción sobre $d$, utilizando la siguiente sencilla fórmula: \begin{equation} \Delta_{x}\left( fg\right) =\left( \Delta_{x}f\right) g+\left( S_{x}f\right) \left( \Delta_{x}g\right) \qquad \text{for every } f, g \in \mathbb{K}^M \end{equation} (y la igualmente sencillo hecho de que el $\mathbb{K}$-módulo $M^{\vee d}$ is spanned by maps of the form $fg$ with $f\M^{\v\a la izquierda( d-1\right) }$ and $g\M^{\vee}$, whenever $d>0$).]

El siguiente hecho sigue por inducción utilizando el Lema 2:

Corolario 3. Deje $r\in\mathbb{N}$. Deje $x_{1},x_{2},\ldots,x_{r}$ $r$ elementos de $M$. A continuación, \begin{equation} \Delta_{x_{1}}\Delta_{x_{2}}\cdots\Delta_{x_{r}}M^{\vee d}\subseteq M^{\vee\left( d-r\right) } \end{equation} para cada una de las $d\in\mathbb{Z}$.

Y como consecuencia de esto, obtenemos lo siguiente:

Corolario 4. Deje $r\in\mathbb{N}$. Deje $x_{1},x_{2},\ldots,x_{r}$ $r$ elementos de $M$. A continuación, \begin{equation} \Delta_{x_{1}}\Delta_{x_{2}}\cdots\Delta_{x_{r}}M^{\vee d}=0 \end{equation} para cada una de las $d\in\mathbb{Z}$ satisfacción $d<r$.

[De hecho, Corolario 4 se sigue inmediatamente de Corolario 3, debido a que $d<r$ implica $M^{\vee\left( d-r\right) }=0$.]

Para hacer uso de Corolario 4, queremos una manera más o menos explícita expresión de cómo $\Delta_{x_{1}}\Delta_{x_{2}}\cdots\Delta_{x_{r}}$ actos en los mapas en $\mathbb{K}^{M}$. Este es el hecho siguiente:

Proposición 5. Deje $r\in\mathbb{N}$. Deje $x_{1},x_{2},\ldots,x_{r}$ $r$ elementos de $M$. A continuación, \begin{equation} \left( \Delta_{x_{1}}\Delta_{x_{2}}\cdots\Delta_{x_{r}}f\right) \left( m\right) =\sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }f\left( m+\sum\limits_{i\in I}x_{i}\right) \qquad\text{for each }m\in M\text{ and }f\in\mathbb{K}^{M}. \end{equation}

[La proposición 5 se puede demostrar por inducción sobre $r$, donde la inducción paso consiste en dividir la suma en el lado derecho en la parte con la $I$ que contengan $r$ y la parte con la $I$ que no. Pero también hay un astuto argumento, que necesita un tiempo de preparación. Los mapas de $S_{x}\en \operatorname{End}_{\mathbb{K}}\left( \mathbb{K}^{M}\right) $ de diferentes elementos de la $x\in M$ commute, mejor aún, a que se cumplan los la multiplicación de la regla de $S_{x}S_{y}=S_{x+y}$ (como se puede comprobar inmediatamente). Por lo tanto, por inducción sobre $\left\vert I\right\vert $, podemos concluir que, si $I$ es cualquier conjunto finito, y si $x_{i}$ es un elemento de $M$ por cada $i\in I$, luego \begin{equation} \prod\limits_{i\in I}S_{x_{i}}=S_{\sum\limits_{i\in I}x_{i}} \qquad \text{in the ring } \operatorname{End}_{\mathbb{K}} \left(\mathbb{K}^M\right) . \end{equation} Me referiré a este hecho como el S-regla de la multiplicación.

Ahora, vamos a demostrar la Proposición 5. Deje $x_{1},x_{2},\ldots,x_{r}$ $r$ elementos de $M$. Recordemos la conocida fórmula \begin{equation} \prod\limits_{i\in\left\{ 1,2,\ldots,r\right\} }\left( 1-a_{i}\right) =\sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }\prod\limits_{i\in I}a_{i}, \end{equation} que tiene siempre $a_{1},a_{2},\ldots,a_{r}$ son desplazamientos de los elementos de algunos anillo. La aplicación de esta fórmula a $a_{i}=S_{x_{i}}$, obtenemos \begin{equation} \prod\limits_{i\in\left\{ 1,2,\ldots,r\right\} }\left( \operatorname*{id} -S_{x_{i}}\right) =\sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }\prod\limits_{i\in I}S_{x_{i}} \end{equation} (desde $S_{x_{1}},S_{x_{2}},\ldots,S_{x_{r}}$ son desplazamientos de los elementos de la anillo de $\operatorname{End}_{\mathbb{K}}\left( \mathbb{K}^{M}\right) $). Por lo tanto, \begin{align*} \Delta_{x_{1}}\Delta_{x_{2}}\cdots\Delta_{x_{r}} & =\prod\limits_{i\in\left\{ 1,2,\ldots,r\right\} }\underbrace{\Delta_{x_{i}}} _{\substack{=\operatorname*{id}-S_{x_{i}}\\\text{(by the definition of } \Delta_{x_{i}}\text{)}}}=\prod\limits_{i\in\left\{ 1,2,\ldots,r\right\} }\left( \operatorname*{id}-S_{x_{i}}\right) \\ & =\sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }\underbrace{\prod\limits_{i\in I}S_{x_{i}}} _{\substack{=S_{\sum\limits_{i\in I}x_{i}}\\\text{(by the S-multiplication rule)} }}=\sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }S_{\sum\limits_{i\in I}x_{i}}. \end{align*} Por lo tanto, para cada una de las $m\in M$$f\in\mathbb{K}^{M}$, obtenemos \begin{align*} & \left( \Delta_{x_{1}}\Delta_{x_{2}}\cdots\Delta_{x_{r}}f\right) \left( m\right) \\ & =\left( \sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }S_{\sum\limits_{i\in I}x_{i}}f\right) \left( m\right) \\ & =\sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }\underbrace{\left( S_{\sum\limits_{i\in I}x_{i}}f\right) \left( m\right) }_{\substack{=f\left( m+\sum\limits_{i\in I}x_{i}\right) \\\text{(by the definition of the shift operators)}}}\\ & =\sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }f\left( m+\sum\limits_{i\in I}x_{i}\right) . \end{align*} Así, la Proposición 5 está probada.]

Ahora podemos combinar Corolario 4 con la Proposición de 5 y obtiene las siguientes:

Corolario 6. Deje $x_{1},x_{2},\ldots,x_{r}$ $r$ elementos de $M$. Vamos $d\in\mathbb{Z}$ ser tal que $d<r$. Deje $f\in M^{\vee d}$$m\in M$. A continuación, \begin{equation} \sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }f\left( m+\sum\limits_{i\in I}x_{i}\right) =0. \end{equation}

[De hecho, el Corolario 6 desprende de la computación \begin{align*} & \sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }f\left( m+\sum\limits_{i\in I}x_{i}\right) \\ & =\underbrace{\left( \Delta_{x_{1}}\Delta_{x_{2}}\cdots\Delta_{x_{r} }f\right) }_{\substack{=0\\\text{(by Corollary 4, since } f \in M^{\vee d} \text{)}}}\left( m\right) \qquad\left( \text{by Proposition 5}\right) \\ & =0. \end{align*} ]

Por último, vamos a demostrar el Teorema 1. La matriz de anillo de $\mathbb{K}^{n\times n}$ es un $\mathbb{K}$-módulo. Deje $M$ esto $\mathbb{K}$-módulo de $\mathbb{K}^{n\times n}$. For each $i,j\in\left\{ 1,2,\ldots,n\right\} $, we let $x_{i,j}$ se la mapa de $M\rightarrow\mathbb{K}$ que envía cada matriz $M$ a su $\left( i,j\right) $-th entry; this map $x_{i,j}$ is $\mathbb{K}$-lineal y por lo tanto pertenece a $M^{\vee}$.

Es fácil ver que el mapa de $\det:\mathbb{K}^{n\times n}\rightarrow \mathbb{K}$ (sending each $n\times n$-matriz para su determinante) es un homogénea función polinómica de grado $n$$M$; de hecho, puede ser representado en la conmutativa $\mathbb{K}$-álgebra $\mathbb{K}^M$ \begin{equation} \det=\sum\limits_{\sigma\in S_{n}}\left( -1\right) ^{\sigma}x_{1,\sigma\left( 1\right) }x_{2,\sigma\left( 2\right) }\cdots x_{n,\sigma\left( n\right) }, \end{equation} donde $S_{n}$ $n$- ésimo grupo simétrico, y donde $\left( -1\right) ^{\sigma}$ denotes the sign of a permutation $\sigma$. En otras palabras, $\det\in M^{\vee n}$. Por lo tanto, el Corolario 6 (aplicado a $x_{i}=A_{i}$, $d=n$, $f=\det$ $m=0$ ) de los rendimientos de \begin{equation} \sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }\det\left( 0+\sum\limits_{i\in I}A_{i}\right) =0. \end{equation} En otras palabras, \begin{equation} \sum\limits_{I\subseteq\left\{ 1,2,\ldots,r\right\} }\left( -1\right) ^{\left\vert I\right\vert }\det\left( \sum\limits_{i\in I}A_{i}\right) =0. \end{equation} Esto demuestra el Teorema 1.

3voto

Joe Gauterin Puntos 9526

Dado enteros $n > m > 0$, vamos a $[n]$ ser un corto de la mano para el conjunto $\{1,\ldots,n\}$.

Para cualquier $t \in \mathbb{R}$$x_1, \ldots, x_n \in \mathbb{C}$, tenemos la identidad

$$\prod_{k=1}^n (1 - e^{tx_k}) = \sum_{P \subset [n]} (-1)^{|P|} e^{t\sum_{k\in P} x_k}$$

El tratamiento de ambos lados como función de $t$. Expanda en contra de $t$, un aviso en la PREPA, los coeficientes delante de $t^k$ se desvanece cuando $k < n$. Mediante la comparación de los coeficientes de $t^m$, obtenemos:

$$ 0 = \sum_{P\subset [n]} (-1)^{|P|} \left(\sum_{k\in P} x_k\right)^m\tag{*1}$$

Aviso RHS es un polinomio de la función en $x_1,\ldots,x_n$ con coeficientes enteros. Ya que se evalúa a $0$ todos los $(x_1,\ldots,x_n) \in \mathbb{C}^n$, es válido como un polinomio de identidad en $n$ indeterminates con coeficientes enteros. Como corolario, es válido como una expresión algebraica de la identidad al $x_1, x_2, \ldots, x_n$ son elementos tomados de cualquier álgebra conmutativa.

Deje $V$ ser un espacio vectorial sobre $\mathbb{C}$ distribuido por elementos de la $\eta_1, \ldots, \eta_m$$\bar{\eta}_1,\ldots,\bar{\eta}_m$.

Deje $\Lambda^{e}(V) = \bigoplus_{k=0}^n \Lambda^{2k}(V)$ 'incluso' la porción de su exterior álgebra. $\Lambda^{e}(V)$ sí es un álgebra conmutativa.

Para cualquier $m \times m$ matriz $A$, vamos a $\tilde{A} \in \Lambda^e(V)$ a ser el elemento definido por:

$$A = (a_{ij}) \quad\longrightarrow\quad \tilde{A} = \sum_{i=1}^m\sum_{j=1}^m a_{ij}\bar{\eta}_i \wedge \eta_j$$

Aviso de la $m$-a veces el poder de $\tilde{A}$ satisface una interesante identidad:

$$\tilde{A}^m = \underbrace{\tilde{A} \wedge \cdots \wedge \tilde{A}}_{m \text{ momentos}} = \det(A) \omega \quad\text{ donde }\quad \omega = m!\, \bar{\eta}_1 \wedge \eta_1 \wedge \cdots \wedge \bar{\eta}_m \wedge \eta_m\etiqueta{*2}$$

Dado cualquier $n$-tupla de matrices $A_1, \ldots, A_n \in M_{m\times m}(\mathbb{C})$, si sustituimos $x_k$ $(*1)$ $\tilde{A}_k$ y se aplican $(*2)$, nos encontramos con

$$ \sum_{P\subconjunto [n]} (-1)^{|P|} \left(\sum_{k\in P} \tilde{A}_k\right)^m = \sum_{P\subconjunto [n]} (-1)^{|P|} \det\left(\sum_{k\in P} A_k\right)\omega = 0 $$ Extraer el coeficiente delante de $\omega$, el deseo de identidad de la siguiente manera: $$\sum_{P\subset [n]} (-1)^{|P|} \det\left(\sum_{k\in P} A_k\right) = 0$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X