35 votos

Determinante de un bloque triangular inferior de la matriz

Estoy tratando de probar lo siguiente: Vamos a $A$ $k\times k$ matriz, vamos a $D$ tienen un tamaño $n\times n$, e $C$ tienen un tamaño $n\times k$. A continuación,

$$\det\left(\begin{array}{cc} A&0\\ C&D \end{array}\right) = \det(A)\det(D).$$

Puedo decir que $AD - 0C = AD$, y yo estoy hecho?

38voto

JiminyCricket Puntos 143

Si $A$ es singular, sus filas son linealmente dependientes, por lo tanto las filas de la matriz son linealmente dependientes, por lo tanto los lados de propulsores de la ecuación de desaparecer.

Si $A$ es no singular, tenemos

$$\pmatrix{I&0\\-CA^{-1}&I}\pmatrix{A&0\\C&D}=\pmatrix{A&0\\0&D}\;.$$

Los determinantes de las dos nuevas matrices son quizás más fácil que se derivan de la expansión de Laplace que la de la matriz entera. Son$1$$\det A \det D$, respectivamente, y el resultado de la siguiente manera.

Otra forma de expresar esto es que si $A$ es no singular, puede deshacerse de la $C$ por eliminación Gaussiana.

24voto

Zilin J. Puntos 2617

Como @user153012 está pidiendo una prueba en detalle, aquí es un ataque de fuerza bruta utilizando una expresión explícita de un factor determinante de una $n$ $n$ matriz, dicen $A = (a[i,j])$, $$\det A = \sum_{\sigma\in S_n}\operatorname{sgn}\sigma \prod_i a[{i,\sigma(i)}],$$ where $S_n$ is the symmetric group on $[n] = \{1,\dots, n\}$ and $\operatorname{sgn}\sigma$ denotes the signature of $\sigma$.

En la matriz $$B = \left(\begin{array}{cc} A&0\\ C&D \end{array}\right),$$ we have $$b[i,j] = \begin{cases}a[i,j] & \text{if }i \le k, j \le k;\\ d[i-k, j-k] & \text{if }i > k, j > k; \\ 0 & \text{if }i \le k, j > k; \\ c[i-k,j] & \text{otherwise}.\end{cases}$$ Observe in $$\det B = \sum_{\sigma\in S_{n+k}}\operatorname{sgn}\sigma\prod_i b[i, \sigma(i)],$$ if $\sigma(i) = j$ such that $i\k le$ and $j > k$, then the corresponding summand $\prod_i b[i,\sigma(i)]$ is $0$. Any permutation $\sigma\S_{n+k}$ for which no such $i$ and $j$ exist can be uniquely "decomposed" into two permutations, $\pi$ and $\tau$, where $\pi\en S_k$ and $\tau\en S_n$ such that $\sigma(i) = \pi(i)$ for $i \k le$ and $\sigma(k+i) = k+\tau(i)$ for $i \le n$. Moreover, we have $\operatorname{sgn}\sigma = \operatorname{sgn}\pi\operatorname{sgn}\tau$. Denote the collection of such permutations by $S_n'$. Therefore, we can write $$\begin{eqnarray}\det B &=& \sum_{\sigma\in S_n'}\operatorname{sgn}\sigma\prod_{i=1}^k b[i,\sigma(i)]\prod_{i=k+1}^{k+n} b[i,\sigma(i)] \\ &=& \sum_{\sigma\in S_n'}\operatorname{sgn}\sigma\prod_{i=1}^k a[i,\sigma(i)]\prod_{i=1}^nd[i,\sigma(i+k)-k] \\ & = & \sum_{\pi\in S_k,\tau\in S_n}\operatorname{sgn}\pi\operatorname{sgn}\tau\prod_{i=1}^k a[i,\pi(i)]\prod_{i=1}^nd[i,\tau(i)] \\ &=& \sum_{\pi\in S_k}\operatorname{sgn}\pi\prod_{i=1}^k a[i,\pi(i)]\sum_{\tau\in S_{n}}\operatorname{sgn}\tau\prod_{i=1}^nd[i,\tau(i)] \\ & = & \det A\det D.\end{eqnarray}$$ QED.

Actualización Como @Marc van Leeuwen se menciona en el comentario, una fórmula similar se tiene para los permanentes.La prueba es básicamente la misma que la prueba de determinante, excepto uno tiene que dejar todas esas firmas de permutaciones.

19voto

GmonC Puntos 114

Este es un resultado fundamental sobre los determinantes, y como la mayoría de tales resultados para matrices con entradas en cualquier conmutativa (unitario) del anillo. Por lo tanto, es bueno tener una prueba de que no se basa en los coeficientes de estar en un campo; voy a utilizar la fórmula de Leibniz como la definición del determinante en lugar de una caracterización como la alternancia $n$-forma lineal. (Y mis disculpas a aquellos que encuentran desagradable; para algunos propósitos, utilizando la definición que realmente es lo mejor.)

Escrito por una permutación $\sigma$ y una matriz de $M$ la abreviatura $\def\sg{\operatorname{sg}}M[\sigma]=\sg(\sigma)\prod_iM_{i,\sigma(i)}$, la fórmula de Leibniz dice que, para cualquier $m\times m$ matriz $M$ $$ \det(M)=\sum_{\sigma\en S_m}M[\sigma] $$ El resultado se basa en los siguientes simple hecho acerca de los grupos simétricos

El subgrupo de $S_{k+n}$ de permutaciones permuting la primera $k$ elementos entre los unos a los otros es canónicamente isomorfo a $S_k\times S_n$, y si $\sigma\in S_{k+n}$ corresponde a $(\pi,\rho)\in S_k\times S_n$$\sg(\sigma)=\sg(\pi)\sg(\rho)$.

De hecho, esta es, básicamente, sólo decir que si la primera $k$ elementos se permutan entre sí, entonces también lo son el resto de $n$ elementos, y el signo de toda la permutación es el producto de los signos de sus restricciones a los dos subconjuntos.

Ahora si $M=\bigl(\begin{smallmatrix}A&0\\C&D\end{smallmatrix}\bigr)$ tenga en cuenta que $M[\sigma]=0$ menos $\sigma$ permutes primera $k$ índices, entre otros. De esto se sigue que $$ \det(M)=\sum_{\sigma\S_{k+n}}M[\sigma] =\sum_{(\pi,\rho)\en S_k\times S_n} [\pi]D[\rho] =\left(\sum_{\pi\en S_k} [\pi]\right)\left(\sum_{\rho\en S_n}D[\rho]\right) =\det a\det D. $$


Alternativamente, si uno está dispuesto a asumir la propiedad de $\det(MN)=\det(M)\det(N)$ (no es realmente más fácil de lo que uno se ha demostrado aquí, pero tal vez el más conocido), y si se considera el caso especial donde el $A=I$ o $D=I$ a ser claro (ya que uno puede obtener el resultado en estos casos repetidos de Laplace de expansión por filas, respectivamente, por columnas), entonces uno puede emplear cualquier descomposición de la forma $$ \pmatrix{A&0\\C&D} = \pmatrix{A&0\\C_0&I} \pmatrix{I&0\\C_1&D} \qquad\text{con $C=C_0+C_1$} $$ (por ejemplo, con uno de $C_0,C_1$ igual a cero) para obtener el resultado deseado.

8voto

Andreas Caranti Puntos 35676

Otra prueba, en el caso de los campos, se puede obtener si usted está dispuesto a ampliar su campo a un algebraicamente cerrado. Entonces cualquier matriz se puede poner en (inferior) de forma triangular, con los valores propios de la diagonal. En particular, hay invertible matrices $S, T$ de las medidas apropiadas tales que $S^{-1} A S$ $T^{-1} D T$ están en baja forma triangular. Entonces $$ \begin{bmatrix} S& 0\\ 0 & T\\ \end{bmatrix}^{-1} \begin{bmatrix} A&0\\ C&D \end{bmatrix} \begin{bmatrix} S& 0\\ 0 & T\\ \end{bmatrix} = \begin{bmatrix} S^{-1} A S&0\\ T^{-1} C S&T^{-1} D T \end{bmatrix} $$ está en baja forma triangular, y el resto es más o menos sencillo. Claramente puedo confiar en el multiplicativity de los factores determinantes aquí, o en el hecho de que el determinante es invariante bajo la conjugación.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X