11 votos

Lema de la dependencia lineal

Esto está sacado de mi libro de texto, "Linear Algebra Done Right" de Axler, del que estoy estudiando por mi cuenta. ( He organizado mis pensamientos en los que me gustaría algún tipo de respuesta con números romanos ).

Lema de la dependencia lineal : Si $(v_{1},\ldots,v_{m})$ depende linealmente en $V$ y $v_{1} \neq 0$ entonces existe $j \in \{2,\ldots,m\}$ tal que se cumpla lo siguiente:

(a) $v_{j} \in span(v_{1},\ldots,v_{j-1})$ ;

( I. ¿Por qué hay que justificar esto? ¿Es porque $v_{j}$ es un vector "extra", que haría depender este conjunto arbitrario de combinaciones lineales ).

(b) Si el $j^{th}$ se elimina el término de $(v_{1},\ldots,v_{m})$ el alcance de la lista restante es igual a $span(v_{1},\ldots,v_{m})$ .

( II. Mi suposición es que esto significa básicamente que si eliminamos este vector extra, entonces seguimos teniendo la misma lista de combinaciones lineales).

(También he encontrado la siguiente prueba un poco confusa y necesito alguna aclaración).

PRUEBA: Supongamos que $(v_{1},\ldots,v_{m})$ depende linealmente en $V$ y $v_{1} \neq 0$ . Entonces existe $a_{1},\ldots,a_{m} \in \mathbb{F}$ no todos $0$ tal que $$a_{1}v_{1}+\cdots+a_{m}v_{m} = 0$$ .

(Hasta aquí todo bien, por lo que sé, esto no es más que afirmar lo contrario de la Independencia Lineal, donde la única opción de $a_{1},\ldots,a_{m} \in \mathbb{F}$ que satisface $a_{1}v_{1}+\cdots+a_{m}v_{m} = 0$ es $a_1 =\cdots= a_{m} = 0$ )

CONT: No todos los $a_{2},a_{3},\ldots,a_{m}$ puede ser $0$ (porque $v_1 \neq 0)$ . Sea $j$ sea el mayor elemento de $\{2,\ldots.,m\}$ tal que $a_{j} \neq 0$ . Entonces $$ v_{j} = -\frac{a_1}{a_j}v_1 - \cdots - \frac{a_{j-1}}{a_j}v_{j-1} ,$$

demostrando (a).

( III. Voy a completar los pasos adicionales aquí porque creo que puedo tener la idea correcta).

$Span(v_{1},\ldots,v_{m}) = 0$ para $j \in \{2,\ldots,m\} = a_{1}v_{1} + \cdots + a_{j}v_{j} = 0$ .

Aquí sólo resolví para $v_j$ y obtuve el resultado $v_{j} = -\frac{a_1}{a_j}v_1 - \cdots - \frac{a_{j-1}}{a_j}v_{j-1} ,$ que corresponde a lo anterior. $a_{j} \neq 0$ porque tenemos $a_j^{-1}$ para cada término, y $v_1 \neq 0$ porque si tenemos $a_{1}v_{1}+\cdots+a_{j}v_{j} = 0$ entonces todos los escalares $a_{2},\ldots,a_{m} \in \mathbb{F}$ podría ser igual a $0$ Si ese fuera el caso. Creo que tengo una idea, pero ¿cómo prueba esto exactamente que $v_j$ está contenida en el tramo de $(v_{1},\ldots,v_{j-1})$ ? ¿Es porque $ -\frac{a_1}{a_j}v_1 - \cdots - \frac{a_{j-1}}{a_j}v_{j-1}$ es sólo una combinación lineal de vectores que es igual a $v_j$ ?

CONT: para demostrar (b), supongamos que $u \in span(v_{1},\ldots,v_{m})$ . Entonces existe $c_{1},\ldots,c_m \in \mathbb{F}$ tal que $$u = c_1v_1 + \cdots + c_mv_m$$ .

En la ecuación anterior, sustituimos $v_j$ con el lado derecho de 2,5, lo que demuestra que $u$ se encuentra en el tramo de la lista obtenida al eliminar el $j^{th}$ término de $(v_1,\ldots,v_m)$ . Por lo tanto, (b) se mantiene. $\Box$

( IV. ¿Cómo funciona esto exactamente? Esta parte es la que más me confunde).

Lamento que sea una lista tan larga, pero realmente quiero entender completamente todo lo que estoy aprendiendo, y soy bastante nuevo en probar cosas, así que quiero asegurarme de mejorar esa habilidad también.

7voto

GmonC Puntos 114

I. ¿Por qué es necesario justificar (a)?

Porque toda reclamación que se haga debe serlo. La esencia de (a) es que si hay una dependencia lineal, entonces hay un índice específico $j$ de tal manera que la culpa de la dependencia lineal se puede dar a $v_j$ por no ser independiente de sus predecesores. Una forma diferente de demostrarlo es considerar la lista de secuencias $()$ , $(v_1)$ , $(v_1,v_2)$ , $\ldots$ , $(v_1,v_2,\ldots,v_m)$ ; como el primero es linealmente independiente y el último es linealmente dependiente (por suposición) debe haber un primero en la lista que sea linealmente dependiente; si esto es $(v_1,\ldots,v_j)$ entonces se puede mostrar $v_j\in span(v_1,\ldots,v_{-1})$ . El argumento es similar a la prueba dada en el texto (una relación de dependencia lineal entre $(v_1,\ldots,v_j)$ debe implicar $v_j$ con coeficiente no nulo). Una ventaja de este enfoque es que no depende esencialmente de ninguna elección (la dependencia lineal tomada es única hasta un múltiplo escalar) y hace recaer la culpa en el primer $v_j$ que provoca una dependencia lineal.

II. Mi suposición es que (b) significa básicamente que si eliminamos este vector extra, entonces seguimos teniendo la misma lista de combinaciones lineales.

Más concretamente, la eliminación de $v_j$ no afecta al conjunto de vectores que pueden escribirse como combinaciones lineales, aunque las propias combinaciones lineales parezcan diferentes (ya que $v_j$ ya no puede aparecer).

III. Voy a rellenar... $span(v_{1},\ldots,v_{m}) = 0$ para $j \in \{2,\ldots,m\} = a_{1}v_{1} + \cdots + a_{j}v_{j} = 0$ . Aquí sólo resolví para $v_j$ y obtuve el resultado $v_j = -\frac{a_1}{a_j}v_1 - \cdots - \frac{a_{j-1}}{a_j}v_{j-1} ,$ que corresponde a lo anterior. $a_{j} \neq 0$ porque tenemos $a_j^{-1}$ para cada término,

Lo has entendido un poco al revés. Sólo podrías resolver para $v_j$ bajo el supuesto $a_j\neq0$ ; no se puede concluir que a partir del hecho de que usted acaba de resolver para $v_j$ .

y $v_1 \neq 0$ porque si tenemos $a_{1}v_{1}+\cdots+a_{j}v_{j} = 0$ entonces todos los escalares $a_{2},\ldots,a_{m} \in \mathbb{F}$ podría ser igual a $0$ Si ese fuera el caso.

Esto es doblemente irrelevante. $v_1\neq0$ se da, no es necesario demostrarlo. Por otro lado no hay nada absurdo en los escalares $a_{2},\ldots,a_{m} \in \mathbb{F}$ siendo todo igual a $0$ , excepto que el texto acababa de demostrar que no es el caso utilizando el hecho de que $v_1\neq0$ . Pero el autor podría haber evitado todo el lío sobre $v_1$ observando que $span()=\{0\}$ .

Creo que tengo una idea, pero ¿cómo prueba esto exactamente que $v_j$ está contenida en el tramo de $(v_{1},\ldots,v_{j-1})$ ? ¿Es porque $ -\frac{a_1}{a_j}v_1 - \cdots - \frac{a_{j-1}}{a_j}v_{j-1}$ es sólo una combinación lineal de vectores que es igual a $v_j$ ?

Precisamente.

En la ecuación anterior, sustituimos $v_j$ con el lado derecho de 2,5, lo que demuestra que $u$ se encuentra en el tramo de la lista obtenida al eliminar el $j^{th}$ término de $(v_1,\ldots,v_m)$ . Por lo tanto, (b) se mantiene. $\Box$

IV. ¿Cómo funciona esto exactamente?

Si se escribe una combinación lineal de $v_1,\ldots,v_m$ contiene una única ocurrencia de $v_j$ . Si se sustituye esa ocurrencia (entre paréntesis, ya que se multiplica por un escalar) por el lado derecho de 2,5, entonces ya no hay ninguna ocurrencia de $v_j$ . No se obtiene directamente una combinación lineal de los restantes $v_i$ pero una vez que se resuelve la multiplicación y se reúnen los términos semejantes, se obtiene dicha combinación lineal. Por ejemplo, si $v_3=-5v_1+\frac32v_2$ entonces $$\begin{align} av_1+bv_2+cv_3+dv_4 &= av_1+bv_2+c(-5v_1+\frac32v_2)+dv_4 \\&= av_1+bv_2-5cv_1+\frac32cv_2+dv_4 \\&= (a-5c)v_1+(b+\frac32c)v_2+dv_4. \end{align} $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X