8 votos

Determinante de una matriz e independencia lineal (se necesita explicación)

Está escrito en Wikipedia que:

$n$ vectores en $\mathbb R^n$ son linealmente independientes si y sólo si el determinante de la matriz formada al tomar los vectores como sus columnas es distinto de cero

¿Puede alguien explicarme esto? No hace falta que dé una prueba completa, sólo que explique en términos sencillos qué tiene que ver el determinante de esa matriz con la independencia lineal? ¿Y por qué tiene que ser distinto de cero? ¿Y se permite que los vectores sean filas en lugar de columnas en esa matriz?

2 votos

Se debe a que el determinante es lineal en las columnas y alternante (al cambiar dos columnas cambia el signo). Si una columna es una combinación lineal de las otras, entonces por linealidad el determinante es igual a una combinación lineal de determinantes de matrices que tienen una columna repetida. Cuando se tiene una columna repetida y se cambian, se supone que el signo cambia, pero la matriz resultante es la misma. el único número que permanece igual después de cambiar de signo, es $0$ .

1 votos

Y, sí se pueden poner como filas, ya que el determinante de una matriz es igual al determinante de su transposición.

0 votos

El determinante puede ser visto como una función que es específicamente diseñado para comprobar la dependencia lineal de los vectores. Desde este punto de vista no hay ningún caso que responder.

14voto

zardos Puntos 41

Aquí una simple explicación geométrica:

  • $2$ los vectores en el plano son linealmente independientes si y sólo si abarcan un paralelogramo de área no nula
  • $3$ vectores en el espacio 3D son linealmente independientes si y sólo si abarcan un paralelepípedo con un volumen no nulo
  • $n$ vectores en $\mathbb{R}^n$ son linealmente independientes si y sólo si abarcan un $n$ -paralelepípedo con un volumen no nulo

El determinante es la llamada "forma de volumen" que da para $n$ vectores en $\mathbb{R}^n$ el $n$ -El volumen de la dimensión del paralelepípedo que abarcan esos vectores (hasta un signo que da lugar a la llamada orientación).

Por lo tanto, si $n$ vectores en $\mathbb{R}^n$ son linealmente dependientes, no pueden abarcar un $n$ -y, por lo tanto, produce un volumen nulo.

1 votos

Tal vez deberías incluir también la definición independiente de la base (si tienes vectores que abarcan un volumen n-dimensional, entonces transformando los vectores según un mapa lineal $\mathbf{A}$ cambia el volumen por el factor $\det\mathbf{A}$ ). Y el OP puede buscar la operación llamada "producto exterior" para saber más sobre la relación entre determinantes y medidas.

0 votos

@Roman Odalsky: Yo tenía más bien en mente el enfoque de Weierstrass sobre los determinantes. Después de entender el determinante como un volumen, ya no es una sorpresa cuando aparecen en $n$ -La sustitución de la dimensión (como una aplicación especial de las medidas transformadas). Estuve bastante tentado de incluir una breve nota sobre el principio de Cavalieri que produce inmediatamente la invariancia del determinante cuando un múltiplo de una columna/fila se añade a otra columna/fila.

0 votos

Y, por supuesto, un vector en la línea ( $\mathbb R$ ) es linealmente independiente si y sólo si abarca una línea de longitud no nula. :-)

3voto

El determinante se refiere a la invertibilidad de la matriz. La afirmación equivale a decir que no hay dos columnas linealmente dependientes. Si lo fueran, al convertirla en una forma reducida (como RREF) se obtiene una fila o columna de ceros. Esto significaría que el determinante es cero, y por tanto las columnas son linealmente dependientes.

3voto

Kaynex Puntos 119

El determinante tomará una matriz, y devolverá un número real, tal que la multiplicación se conserva. Es decir:

Si $AB = N$ entonces $det(A)det(B) = det(N)$

Esto implica que como $AA^{-1} = I$ entonces $det(A)det(A^{-1}) = 1$ . O, reordenando, $det(A^{-1}) = \frac{1}{det(A)}$

De inmediato, una propiedad ordenada. El determinante de una matriz inversa es el recíproco del determinante de la matriz original. Sin embargo, si el determinante de la matriz original es $0$ nos encontramos con un claro problema. El problema era la suposición de una inversa bien definida, que claramente no puede existir cuando $det(A) = 0$ .

3voto

Acccumulation Puntos 13
  1. Los n vectores son linealmente dependientes si el vector cero es una combinación lineal no trivial de los vectores (definición de linealmente independiente).

  2. El vector cero es una combinación lineal no trivial de los vectores si la matriz por algún vector no cero es cero (definición de multiplicación de matrices)

  3. La matriz por algún vector no nulo es cero si la matriz aumentada de los vectores y el vector nulo tiene una solución no trivial (definición de resolver una matriz aumentada)

  4. La matriz aumentada tiene una solución no trivial si la matriz aumentada puede reducirse en filas para ser una matriz aumentada con el vector cero donde la matriz tiene una fila sin columna pivote (es decir, una fila cero). Estas operaciones de reducción de filas no afectarán al vector cero, por lo que esa parte seguirá siendo el vector cero, y si una fila tiene una columna pivote, entonces la variable correspondiente debe ser cero para coincidir con el vector cero. Así que para tener una solución no trivial, debe haber alguna variable libre que pueda ser distinta de cero.

  5. Las operaciones de reducción de filas no cambian si una matriz tiene un determinante de cero (restar dos filas deja el determinante sin cambios, cambiar filas multiplica por -1, multiplicar una fila por un escalar multiplica el determinante por ese factor).

  6. El determinante de una matriz con una fila nula es cero (esto se puede comprobar expandiendo el determinante alrededor de esa fila).

  7. Por 4, los vectores son linealmente dependientes si la forma reducida tiene una fila cero. Por 5 y 6, la forma reducida tiene una fila cero si la matriz original tiene determinante cero. Por lo tanto, los vectores son linealmente dependientes si la matriz tiene determinante cero.

2voto

Raito Puntos 113

El determinante es un Forma alterna n-lineal (multilineal) .

(Supongamos que nuestros determinantes son con respecto a una base arbitraria del espacio considerado, es sólo un aspecto técnico, por rigor, pero hay que considerar el determinante de una familia con respecto a una base determinada).

Característica de alternancia

Lo relevante aquí es la característica de alternancia, tomemos $(x_1, \ldots, x_n)$ una familia de vectores y $f : \mathbb{K}^n \to \mathbb{K}$ a $n$ -forma alternada lineal de la $\mathbb{K}$ -espacio vectorial de dimensión $n$ a $\mathbb{K}$ .

Si hay $(i, j) \in \{ 1, 2, \ldots, n \}^2$ tal que $i \neq j$ y $x_i = x_j$ entonces $f(x_1, \ldots, x_n) = 0$ .

Utilice el $n$ -característica lineal y tú lo consigues:

Si $(x_1, \ldots, x_n)$ no es linealmente independiente, entonces $f(x_1, \ldots, x_n) = 0$ .

El caso del determinante

Bueno, esto se aplica a $\det$ también, para que, si $\det (x_1, \ldots, x_n) \neq 0$ entonces $(x_1, \ldots, x_n)$ es linealmente independiente.

Por último, definimos el determinante de una matriz como el determinante de las columnas (o líneas, porque $\det$ es invariante con respecto a la transposición de una matriz).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X