4 votos

Cómo probar esto$|A||M|=A_{11}A_{nn}-A_{1n}A_{n1}$

Pregunta:

que la matriz

$A=(a{ij}){n\times n},i=1,2,\cdots,n,j=1,2,\cdots,n$ y la matriz

$M=(a{ij}){(n-2)\times (n-2)},$

quiere decir que

$A =\begin{bmatrix} a{11}&\cdots&a{1n}\ \vdots& M&\vdots\ a{n1}&\cdots&a{nn} \end{bmatrix} $$ muestran que

%#% $ $$\det|A|\cdot \det |M|=A{11}A{nn}-A{1n}A{n1}$ #% Dónde está cofactor con el % de matriz $A_{ij}$.

Este problema es problema lineal del libro de y este problema que no puedo tratar. ¿porque este valor $A$ $ no puedo elegir algo para hacer frente a lo?

5voto

freespace Puntos 9024

EDIT: al principio yo pensé que la prueba a lo largo de estas líneas es bastante simple. Más tarde he encontrado un error en mi intento de prueba. (Puedes ver más abajo.) Todavía creo que la prueba se puede hacer de esta manera, pero es bastante complicado y tenemos que ser cuidadosos acerca de los signos y si no distinto de cero términos que faltan en las sumas que obtenemos. Por lo que es fácil cometer un error. Así que tengo la esperanza de que alguien va a venir para arriba con un enfoque más elegante.


Primer aviso de que si multiplicamos la matriz de la forma de arriba de la derecha o de la izquierda $$B'=\begin{pmatrix}1&0&0\\0&B&0\\0&0&1\end{pmatrix}$$ a ambos lados de la igualdad se multiplican por $|B|^2$.

Para ver esto, basta notar que $A$ se multiplica por $B'$$|B'|=|B|$. La media de $M$ se ha cambiado a $BM$ (o $MB$) por lo que el determinante de la nueva media es $|M|\cdot|B|$. Y los menores de $A$ que aparecen en el lado derecho se multiplican por $\begin{pmatrix}1&0\\0&B\end{pmatrix}$ o $\begin{pmatrix}B&0\\0&1\end{pmatrix}$. Así que cada determinante es multiplicado por $|B|$.

Ahora nos pueden encontrar no-singular matrices $B_{1,2}$ tal que $$\begin{pmatrix}1&0&0\\0&B_1&0\\0&0&1\end{pmatrix} \begin{pmatrix} a_{11}&\cdots&a_{1n}\\ \vdots& M&\vdots\\ a_{n1}&\cdots&a_{nn} \end{pmatrix} \begin{pmatrix}1&0&0\\0&B_2&0\\0&0&1\end{pmatrix}= \begin{pmatrix} b_{11}&\cdots&b_{1n}\\ \vdots& D&\vdots\\ b_{n1}&\cdots&b_{nn} \end{pmatrix}$$ donde $D$ es una matriz diagonal.

Si $M$ es no singular, se puede tomar simplemente $B_1=M^{-1}$$B_2=I$, pero en cualquier caso, podemos obtener la matriz diagonal de $M$ combinando elementales de fila y primaria en la columna de operaciones.

Los argumentos anteriores muestran que es suficiente para demostrar esto, en el caso de $M$ es una matriz diagonal.


Ahora si $M=\operatorname{diag}(d_2,\dots,d_{n-1})$, entonces podemos aplicar la fórmula de Leibniz para la matriz $$|A|=\begin{vmatrix} a_{11}&\cdots&a_{1n}\\ \vdots& M&\vdots\\ a_{n1}&\cdots&a_{nn} \end{vmatrix}.$$

Mediante el análisis de permutaciones que tienen distinto de cero aporte encontramos que $$|A|=a_{11}d_2\cdots d_{n-1}a_{nn} - a_{1,n}d_2\cdots d_{n-1}a_{n1} - \sum_{i=2}^{n-1} a_{n,n} a_{i,1}a_{1,i} \frac{d_2\cdots d_{n-1}}{d_i} - \sum_{j=2}^{n-1} a_{11} a_{j,n}a_{n,j} \frac{d_2\cdots d_{n-1}}{d_i} + \sum_{i=2}^{n-1} a_{1,n} a_{i,1}a_{n,i} \frac{d_2\cdots d_{n-1}}{d_i} + \sum_{i=2}^{n-1} a_{n,1} a_{i,1}a_{n,i} \frac{d_2\cdots d_{n-1}}{d_i} + \sum_{\substack{2\le i,j \le n-1\\i\ne j}} a_{1,i}a_{n,j}a_{i,1}a_{j,n} \frac{d_2\cdots d_{n-1}}{d_i d_j} - \sum_{\substack{2\le i,j \le n-1\\i\ne j}} a_{1,i}a_{n,j}a_{i,n}a_{j,1} \frac{d_2\cdots d_{n-1}}{d_i d_j} $$ No voy a incluir el análisis detallado de todos los casos. Vamos a echar un vistazo, por ejemplo, ¿qué pasa si elegimos $a_{1,i}$ en la primera fila y $a_{n,j}$ en la última fila. (Esto requiere de $i\ne j$.) A continuación, $d_i$ $d_j$ no se puede utilizar. Si queremos ser distinto de cero elementos en el resto de $(n-2)$ filas, debemos utilizar todos los restantes elementos de la diagonal. Esto nos deja con el uso de cualquiera de las $a_{i,1}$ o $a_{i,n}$ $i$- ésima fila. Esta elección determina la elección de la $j$-ésima fila. Así, obtenemos el bien $a_{1,i}a_{n,j}a_{i,1}a_{j,n}$ o $a_{1,i}a_{n,j}a_{i,n}a_{j,1}$ multiplicado por todos los elementos de la diagonal con la excepción de $d_i$$d_j$. Entonces también tenemos que comprobar el signo de la permutación.

El uso de análisis similar, podemos encontrar que:

$$A_{11} = a_{11} d_2\cdots d_{n-1} - \sum_{i=2}^n a_{1,i} a_{i,1} d_2\cdots d_{i-1} d_{i+1} \dots d_n $$

$$A_{nn} = a_{nn} d_2\cdots d_{n-1} - \sum_{j=2}^n a_{n,j} a_{j,n} d_2\cdots d_{j-1} d_{j+1} \dots d_n $$

$$A_{n1} = -a_{1n} d_2 \cdots d_{n-1} + \sum_{i=1}^n a_{1,i} a_{i,n} d_2\cdots d_{i-1} d_{i+1} \dots d_n$$

$$A_{1n} = -a_{n1} d_2 \cdots d_{n-1} + \sum_{j=1}^n a_{n.j}a_{j,1} d_2\cdots d_{j-1} d_{j+1} \dots d_n $$

Ahora podemos comprobar que si multiplicamos $A_{11}A_{nn}-A_{n1}A_{1n}$ obtenemos $|A|\cdot|M|$. (La única pequeña diferencia es que hacemos llegar también sumandos para $i=j$, pero se cancelan.)


EDIT: Este fue mi primer intento, lo cual es incorrecto. Los errores en este enfoque son suposición incorrecta de que sólo dos términos en la expansión de $|A|$ son no-cero y expresión incorrecta de $A_{11}$, $A_{nn}$, $A_{1n}$ y $A_{n1}$.

Ahora si $M=\operatorname{diag}(d_2,\dots,d_{n-1})$ a continuación, podemos ver directamente desde Leibniz fórmulaque $$|A|=\begin{vmatrix} a_{11}&\cdots&a_{1n}\\ \vdots& M&\vdots\\ a_{n1}&\cdots&a_{nn} \end{vmatrix} = a_{11}d_2\dots d_{n-1} a_{nn} - a_{1n} d_2\dots d_{n-1} a_{n1},$$ dado que la contribución de todas las otras permutaciones para el determinante es cero o vienen en pares que se anulan.

Y de esto podemos obtener $$|A|\cdot |M| = (a_{11}d_2\dots d_{n-1}) (d_2\dots d_{n-1}a_{nn}) - (a_{1n} d_2\dots d_{n-1}) (d_2\dots d_{n-1}a_{n1}) = A_{nn}A_{11} - A_{n1}A_{1n}. $$

2voto

Chris Ballance Puntos 17329

Usted puede jugar el buen viejo indeterminado truco. Suponga que la matriz de entradas son tomados de un campo de $K$ (integrante de dominio es también ACEPTAR: que es suficiente para demostrar la igualdad a través de su campo de fracciones). Deje $a_{11},\ldots,a_{nn}$ $n^2$ indeterminates y $A=(a_{ij})_{i,j\in\{1,2,\ldots,n\}}$. A continuación, $A$ es una matriz sobre el campo de fracciones de $F$ del polinomio anillo de $K[a_{11},\ldots,a_{nn}]$. Escribir $$ A=\begin{bmatrix} a_{11}&p^\top&a_{1n}\\ u &M &v\\ a_{n1}&q^\top&a_{nn} \end{bmatrix}. $$ Desde las entradas de $M$ $(n-2)^2$ diferentes indeterminates, $M$ es invertible $F$. Por lo tanto, mediante la realización de algunas fila correspondiente de las operaciones y también algunas operaciones de columna, obtenemos \begin{align} |A| =\left|\begin{matrix} a_{11}&p^\top&a_{1n}\\ u &M &v\\ a_{n1}&q^\top&a_{nn} \end{de la matriz}\right| &=\left|\begin{matrix} a_{11}-p^\top M^{-1}u&0&a_{1n}-p^\top M^{-1}v\\ u &M &v\\ a_{n1}-q^\top M^{-1}u&0&a_{nn}-q^\top M^{-1}v \end{de la matriz}\right|\\ &=\left|\begin{matrix} a_{11}-p^\top M^{-1}u&0&a_{1n}-p^\top M^{-1}v\\ 0 &M &0\\ a_{n1}-q^\top M^{-1}u&0&a_{nn}-q^\top M^{-1}v \end{de la matriz}\right| = |B|, \end{align} donde se denota la gran matriz, en la última línea por $B$. Tenga en cuenta que los cofactores en las cuatro esquinas de $A$ son idénticos a sus homólogos de $B$, porque podemos obtener la correspondiente submatrices de a $B$ mediante la aplicación de la por encima de la fila y columna de las operaciones de las submatrices de a $A$. (Como alternativa, considere la posibilidad de Schur complementa.) Es sencillo comprobar que $$ \left|\begin{matrix} b_{11}&0&b_{1n}\\ 0 &M &0\\ b_{n1}&0&b_{nn} \end{de la matriz}\right| |M| = (b_{11}b_{nn}-b_{1n}b_{n1})|M|^2 = B_{11}B_{nn}-B_{1n}B_{n1}. $$ Por lo tanto, el polinomio de identidad $|A| = A_{11}A_{nn}-A_{1n}A_{n1}$ (aquí ambos lados son polinomios en $n^2$ variables $a_{11},\ldots,a_{nn}$) mantiene así. Así, cuando el $n^2$ indeterminates están especializados para cualquier $n^2$ valores en $K$, la igualdad también se mantiene.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X