7 votos

Por qué$A$ invertible$\iff \det A\neq 0$

Deje que$A$ una matriz$n\times n$ sobre$\mathbb R$. Estoy tratando de demostrar que$A$ es invertible$\iff\det A\neq 0$.

Si$A$ es invertible, hay$B$ st$AB=I$, y por lo tanto$$\det(A)\det(B)=\det(AB)=\det(I)=1,$ $ y por lo tanto$\det A\neq 0$.

Tengo problemas para demostrar lo contrario. Deje$A$ st$\det(A)\neq 0$. Me gustaría decir que$$\det(A)\det(A)^{-1}=1.$ $ Sé que si$A^{-1}$ existe entonces$\det(A)^{-1}=\det(A^{-1})$, pero como tengo que demostrar que$A^{-1}$ existe, no puedo usar esta fórmula ... entonces, ¿cómo puedo concluir?

5voto

T. Gunn Puntos 1203

Para elaborar algunas de las otras respuestas.

El determinante es un alternando multilineal forma en las columnas (o filas) de una matriz. Eso significa que si usted escribe su matriz como $(v_1, \dots, v_n)$ donde $v_i \in \mathbf{R}^n$ son las columnas de la matriz, entonces

  1. $\det$ es lineal en cada columna

  2. Si $v_i = v_j$ cualquier $i \ne j$$\det(v_1, \dots, v_n) = 0$.

Estas dos propiedades implican que si $v_1,\dots,v_n$ son linealmente dependientes, entonces $\det(v_1,\dots, v_n) = 0$. Para suponer que $v_1, \dots, v_n$ son linealmente dependientes. Entonces podemos escribir una de las columnas como una combinación lineal de los otros, y para simplificar, vamos a suponer que la primera columna se puede escribir como una combinación lineal de los otros. Por lo tanto, vamos a

$$v_1 = \sum_{i = 2}^n \alpha_i v_i. $$

Entonces, tenemos por 1. y 2.,

\begin{align*} \det(v_1,v_2,\dots,v_n) &= \det \left( \sum_{i = 2}^n \alpha_i v_i,v_2,\dots,v_n\right) \\ &= \sum_{i = 2}^n \alpha_i\det \left(v_i,v_2,\dots,v_n\right) \tag{by 1.} \\ &= \sum_{i = 2}^n 0 \tag{by 2.} \\ &= 0 \end{align*}

Por lo tanto si $A$ a no es invertible, entonces las columnas de a $A$ son linealmente dependientes, por lo $\det A = 0$. Esta es la primera prueba.


Para la segunda prueba, en términos de matrices elementales, sabemos que hay 3 tipos de elementales de fila (o columna) de operaciones:

  1. Escala de cualquier fila por un no-cero $\alpha \in \mathbf{R}$
  2. Intercambiar dos filas
  3. Agregar $\alpha$ los tiempos de una fila a otra fila

Cada fila de la operación puede ser escrito en términos de la multiplicación de la matriz. Por otra parte, si $E$ es la matriz que hace la fila, entonces el $\det E$$\alpha$, en el caso 1; $-1$ en el caso 2; $1$ en el caso 3. Cuando nos fila reducir el $A$, se multiplica $A$ a la izquierda por una secuencia $E_1,E_{2},\dots, E_k$ elementales de matrices para obtener

$$ E_kE_{k-1}\cdots E_2E_1 A = \begin{pmatrix} I_r & 0 \\ 0 & 0 \end{pmatrix}$$

donde $I_r$ es la matriz identidad de tamaño $r = \operatorname{rank}(A)$.

$$ \det(E_k)\cdots \det(E_1) \det(A) = \det\begin{pmatrix} I_r & 0 \\ 0 & 0 \end{pmatrix}.$$

Tenemos $\det(E_k)\cdots \det(E_1) \ne 0$ desde $\det(E_i) \ne 0$ cualquier $i$. Si $\det(A) \ne 0$, entonces tenemos

$$ \det\begin{pmatrix} I_r & 0 \\ 0 & 0 \end{pmatrix} \ne 0$$

que solo es posible si $r = n$. I. e. al $A$ tiene rango completo.

5voto

Lelouch Lamperouge Puntos 219

Para continuar con la prueba de la utilización de su enfoque:

Utilice la definición de la $\det( )$ como la única alterna multilineal función que actúa sobre las columnas de la matriz tal que $\det(I) = 1$ (en contraposición a la definición que le da una expresión algebraica para $\det()$ en términos de permuations).

$\det(A) \ne 0 \implies $ columnas de $A$ son linealmente independientes, $ \implies A$ es de rango completo.

Para obtener la primera flecha, se puede hacer la prueba por contradicción. Para asumir las columnas de a $A$ son dependientes y $A_1 = \sum_{i=2}^n c_iA_i$ algunos $c_i$. A continuación,$\det(A_1, …, A_n) = \det(A_1 - \sum_{i=2}^n c_iA_i, A_2 + c_2A_2, …, A_n + c_nA_n) = \det(0, A_2 + c_2A_2, …, A_n + c_nA_n) = 0$.

Esta es la contradicción.

Para obtener la segunda flecha, es simplemente la definición de rango.

Por lo $A$ es surjective. Según el rango de nulidad teorema, también es inyectiva. Por lo tanto es bijective, demostrando la existencia de $A^{-1}$ como una función. Entonces es un pequeño paso para demostrar que $A^{-1}$ lineal y, a continuación, puede completar la prueba.

4voto

¡Bien! Verá que$A^{-1}= Adj A / det(A)$ también es un resultado importante que demuestra claramente ambos casos.

1voto

Max Puntos 153

Devendra Singh Rana, la respuesta es la verdadera razón por la que el determinante es útil y por qué tenemos esta caracterización: la fórmula $(\mathrm{Com}A)^TA= \mathrm{det}(A)I_n$ muestra que es suficiente para $\mathrm{det}A$ a sea invertible (por lo tanto, de un campo, $\neq 0$) $A$ a !

Sin embargo, en el caso específico de $\mathbb{R}$ (o un campo más general) no hay otra prueba de que funciona muy bien : vamos a $f: M_n(\mathbb{R})\to \mathbb{R}$ ser un multiplicativo ($f(AB)= f(A)f(B)$) no constante de la función. A continuación, $f(A)\neq 0$ si y sólo si $A$ es invertible.

Por supuesto, la aplicación de esta a $f=\mathrm{det}$ da la conclusión deseada.

¿Cómo podemos demostrar que el reclamo ? Bien en una dirección, argumentan como hacer que invertible matrices tienen distinto de cero $f$. Para esto primero tienes que demostrar que $f(I_n)=1$. Esto se deduce de la $I_nI_n = I_n$ y el hecho de que $f$ es no constante.

Así que usted sabe que puede invertir matrices tienen distinto de cero $f$. Ahora, esto implica que "$f(A)\neq 0$" es invariante bajo la equivalencia de matrices (si $P,Q$ es invertible, entonces a $f(PAQ) = 0 \iff f(A)=0$).

Pero dos matrices son equivalentes si tienen el mismo rango ! Ahora si $A$ a no es invertible, su rango es $<n$ $A$ equivalente a unos nilpotent matriz $N$: pero $f(N)^n= f(N^n) = f(0)$ y se puede argumentar (debido a $0\times 0 = 0$ $f$ es no constante) que $f(0)=0$, y así $f(N)^n=0$, $f(N)=0$, por lo tanto $f(A) = 0$.

Así que el hecho de que $\det$ caracteriza invertibility puede ser visto ya sea a través de la comatrix fórmula que me reafirmó en el principio, o a través de las propiedades abstractas de la función $\det$.

0voto

chocojosh Puntos 639

Dependiendo de lo que se le permita asumir, también tenemos que el determinante de$A $ no es cero si es determinante de la forma escalonada de la fila de$A $ (por ejemplo,$R $) no es cero si es$A $ es invertible. Usando matrices elementales$R=E_nE_{n-1}\dots E_1A$, con cada$E_i $ una matriz elemental (y por lo tanto invertible).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X