¿Que $\mathbf{A}$ y $\mathbf{B}$ matrices de $k \times k$ y $\mathbf{M}$ el bloque matriz $$\mathbf{M} = \begin{pmatrix}0 & \mathbf{B} \\ \mathbf{A} & 0\end{pmatrix}.$ $ cómo probar que $\det(\mathbf{M}) = (-1)^k \det(\mathbf{A}) \det(\mathbf{B})$?
Respuestas
¿Demasiados anuncios?Aquí es una manera, entre otras: $$ \left( \matriz{0&B\\A&0}\right)=\left( \matriz{0&I_k\\I_k&0}\right)\left( \matriz{A&0\\0&B}\right). $$ Supongo que usted está permitido el uso de los bloques de la diagonal caso, lo que da $\det A\cdot\det B$ para la matriz en el extremo derecho. Sólo en el caso de que esto de la siguiente manera por ejemplo de fórmula de Leibniz.
Ahora se reduce a $$ \det\left( \matriz{0&I_k\\I_k&0}\right)=(-1)^k. $$ Esta es la matriz de permutación hecho de $k$ transposiciones. Por lo que el factor determinante es $(-1)^k$ después $k$ primaria operaciones (transposiciones en este caso) que conduce a la matriz identidad.
Tenga en cuenta que mediante la realización de $k$ columnas swaps puede obtener la matriz de $$\mathbf{M}^{'} = \begin{pmatrix}\mathbf{B} & 0 \\ 0 & \mathbf{A}\end{pmatrix}.$$ Obviamente $det(\mathbf{M}^{'})=(-1)^kdet(\mathbf{M})$.
Ahora, la realización de operaciones elementales sobre las filas (es decir, swithching dos filas, multiplicando la fila seleccionada por un no-cero escalar, o la adición de una fila seleccionada otro multiplyied por un escalar) de $\mathbf{M}^{'}$, se reducen a la forma
$$\mathbf{M}^{''} = \begin{pmatrix}\mathbf{B}^{'} & 0 \\ 0 & \mathbf{A}^{'}\end{pmatrix},$$
donde $\mathbf{B}^{'}$ $\mathbf{A}^{'}$ superior triangular de las matrices. Tenga en cuenta que $\mathbf{M}^{''}$ es superior triangular de la misma con una diagonal $[b_1,\ldots,b_k,a_1\ldots,a_k]$.
Obviamente $det(\mathbf{M}^{'})=C_1C_1b_1\ldots b_k a_1\ldots a_k$ donde $C_1$ es un número generado por las operaciones en el primer $k$ filas, y $C_2$ es un número generado por las operaciones en las filas $k+1,\ldots k+k$. Está claro que $det(\mathbf{B})=C_1b_1\ldots b_k$$\det(\mathbf{A})=C_2a_1\ldots a_k$.
Por lo tanto $det(\mathbf{M})=(-1)^kC_1C_1b_1\ldots b_k a_1\ldots a_k=(-1)^kdet(\mathbf{A})det(\mathbf{B})$.
Creo que julien ha contestado a su pregunta de una manera hermosa. Aqui voy a poner tu pregunta en un poco más de contexto general. Tenga en cuenta que para particiones de la matriz $$ M=\pmatrix{P&Q\\ R&S}, $$ donde las cuatro submatrices son cuadrados y tienen el mismo tamaño, si $R$ viajes con $S$ ( $RS=SR$ ), tenemos el bloque determinante de la fórmula $$\det M=\det(PS-QR)\tag{1}$$ que es análoga a la determinante de la fórmula para $2\times2$ matrices. Así, si la ponemos a $P=S=0,\ Q=A$$R=B$, obtenemos $\det M=\det(-AB)=(-1)^k\det(AB)=(-1)^k\det(A)\det(B)$.
Sin duda, usted no debe hacer su ejercicio mediante esta fórmula, debido a que un ejercicio como el suyo están destinados a ser resuelto en un más modo elemental, y $(1)$ es más difícil de probar que su planteamiento del problema. Sin embargo es bueno saber que algunos de niza fórmulas. Sin embargo, la fórmula $(1)$ debe ser aplicado con cuidado: en general, tenemos $$ \det M= \begin{cases} \det(PS-QR) & \text{ if } RS=SR,\\ \det(SP-RQ) & \text{ if } PQ=QP,\\ \det(SP-QR) & \text{ if } QS=SQ,\\ \det(PS-RQ) & \text{ if } PR=RP. \end{casos}\etiqueta{2} $$ Desde los cuatro factores determinantes de la $\det(PS-QR),\,\det(SP-RQ),\,\det(SP-QR)$ $\det(PS-RQ)$ son en general diferentes, a la par de submatrices que se desplazan así como el orden de los cuatro bloques de la materia.
Usar el método que se utiliza en Hoffmann y Kunze, en el capítulo 5. Es decir, definir una función $D(A, B) = det(M)$ (estamos vagando a lo largo de posible $A, B$). $D$ Es un "determinante función." en $A$ y $B$ (alternando y $n$-lineal, etcetera). Luego iterativamente utilizar para una función determinante $D(A) =$det $(A)D(I)$.
Probablemente sería de ayuda si se amplió hacia fuera un poco. Con seguridad podemos decir $$det(M)=(0)(0)-AB$ $ así que sólo tienes que mostrar lo que es -AB. $$\begin{bmatrix}a_{11} & ... & a_{1k}\\ \vdots & & \vdots \\ a_{k1} & ... & a_{kk}\end{bmatrix}\begin{bmatrix}b_{11} & ... & b_{1k}\\ \vdots & & \vdots\\b_{k1}& ...& b_{kk}\end{bmatrix}$ $ Empezar multiplicando hacia fuera y ver si empiezas a ver un patrón. Recuerde, usted puede trabajar en ambas direcciones de la prueba. Así que puede iniciar desde el lado de #% de %#% o det(M). Si los dos se reúnen en algún momento y luego se hacen (yo generalmente reescribirla para fluir mejor sin embargo).