23 votos

Demuestra que $n+1$ vectores en $\mathbb{R}^n$ no pueden ser linealmente independientes

Estaba buscando una demostración breve y llamativa sobre la siguiente afirmación:

n+1 vectores en $\mathbb{R}^n$ no pueden ser linealmente independientes

Un estudiante me preguntó esto esta mañana y no pude encontrar una demostración únicamente a partir de la definición de independencia lineal.

Desde una perspectiva más elevada, expliqué que si pongo los vectores en una matriz y la única entrada de espacio nulo es el vector cero, entonces los vectores son independientes, pero como tenemos una columna más que fila y la fila y columna tienen el mismo rango, no hay forma de que tengamos $n+1$ como el rango de la matriz y, por lo tanto, a partir del Teorema de Rango-Nulidad, la dimensión del espacio nulo es al menos uno, lo que implica que hay una combinación de los vectores donde no todos los múltiplos escalares en la definición son 0 pero aún así obtenemos un cero como la combinación lineal. El estudiante aún no ha aprendido completamente los subespacios fundamentales, así que no estoy seguro de si captó lo que estaba diciendo.

¿Hay una demostración más clara?

EDIT: Estoy asombrado por la cantidad de respuestas maravillosas que recibí con tanta diversidad.

32voto

Denotemos por $(e_1,\ldots,e_n)$ la base estándar de $\mathbb R^n$ y supongamos que $(f_1,\ldots,f_{n+1}) es un conjunto de vectores linealmente independientes. Podemos escribir $$f_1=\sum_{k=1}^n a_k e_k$$ y como $f_1\ne 0$ hay un $a_k\ne 0$ y sin pérdida de generalidad supongamos $a_1\neq0$ así que $$e_1=\frac{1}{a_1}(f_1-\sum_{k=2}^n a_k e_k)$$ entonces vemos que $(f_1,e_2,\ldots,e_n)$ abarca $\mathbb R^n$.

Ahora repetimos $n$ veces el mismo método (inducción) y encontramos que $(f_1,\ldots,f_{n}) abarca $\mathbb R^n$ así que el vector $f_{n+1}$ es una combinación lineal de los otros vectores $f_i$ lo cual es una contradicción.

Si el paso de inducción no fue obvio, considera lo siguiente:

Dado que hemos establecido que $(f_1,e_2,\ldots,e_n)$ abarca $\mathbb R^n$, escribimos

$$f_2=b_1f_1+\sum_{k=2}^n b_k e_k$$

Dado que $f_2\neq0$, hay al menos un $b_l\neq0$. También hay que tener en cuenta que no todos los $(b_2,b_3,\ldots,b_n)$ pueden ser cero porque de lo contrario implicaría que $f_2=b_1f_1$ lo cual contradiría la supuesta independencia lineal de $(f_1,\ldots,f_{n+1})$. Así que podemos tomar $b_l\neq0$ donde $l\geq 2$. Supongamos sin pérdida de generalidad que $b_3\neq0$. Ahora,

$$e_3=\frac{1}{b_3}(f_2-b_1f_1-b_2e_2-\sum_{k=4}^n b_k e_k)$$

De esto vemos que, $(f_1,e_2,f_2,e_4,\ldots,e_n)$ abarca $\mathbb R^n$, donde reemplazamos $e_3$ con $f_2$. La supuesta independencia lineal de los $f_i$ significa que podemos repetir este proceso para reemplazar todos los $e_i$.

10voto

Pedro Tamaroff Puntos 73748

Puedes probar lo siguiente, directamente.

Sea $V$ de dimensión $n$, y sea $\{w_1,\ldots,w_r\}$ un conjunto de vectores linealmente independientes en $V$. Entonces $r\leq n$.

Prueba Sea $\{v_1,\ldots,v_n\}$ una base para $V$. Escribe para cada $i=1,2,\ldots,r$

$$w_i=\sum_{j=1}^n {\alpha_{ij}}v_j$$

Considera el sistema homogéneo de $n$ ecuaciones y $r$ incógnitas, $1\leq j\leq n$. $$\sum_{i=1}^r a_{ij}x_i=0$$

y supongamos que tenemos una solución $\{\omega_1,\ldots,\omega_r\}$. Esto significa que $$\begin{align}\sum_{i=1}^r\omega_i w_i&=\sum_{i=1}^r\omega_i\sum_{j=1}^na_{ij}v_j\\&=\sum_{j=1}^n\left(\sum_{i=1}^r a_{ij}\omega_i\right)v_j=0\end{align}$$

por lo tanto, por independencia lineal, debemos tener $\omega_i=0, i=1,\ldots, r$. Se sigue que el sistema homogéneo solo admite la solución trivial, por lo que debemos tener $r\leq n$. Por lo tanto, cualquier conjunto de $k>n$ vectores debe ser linealmente dependiente. Esto se basa en el hecho de que cualquier sistema homogéneo con más ecuaciones que incógnitas debe admitir una solución no trivial, lo cual es algo (supongo) que la mayoría de los estudiantes conocen.

5voto

Hagen von Eitzen Puntos 171160

Básicamente lo mismo: Sea $n\in\mathbb N_0$ mínimo tal que existen $v_0,\ldots,v_n\in F^n$ que son linealmente independientes. Entonces claramente $n>0$ ya que la única opción para $v_0\in F^0$ es linealmente dependiente. Sea $\pi_n(v)$ el $n$-ésimo componente del vector $v$. Si tenemos $\pi_n(v_i)=0$ para todos los $i$, podemos de hecho ver los vectores como elementos de $F^{n-1}$, donde siguen siendo independientes, contradiciendo la minimalidad de $n$. Por lo tanto, al menos un vector, sin pérdida de generalidad $v_n$, tiene un componente $n$ distinto de cero. Sea $w_i=v_i-\frac{\pi_n(v_i)}{\pi_n(v_n)}v_n$ para $0\le i

4voto

Hurkyl Puntos 57397

Lleva tu idea: colocas los $n+1$ vectores como filas de una matriz, por lo que obtienes una matriz de $(n+1) \times n$.

Ahora, haz la eliminación gaussiana. Obtendrás una fila de ceros. Esa fila de ceros es una combinación lineal no trivial de las filas de tu matriz.

Por lo tanto, dependencia lineal.

Puede ser útil decir primero algunas palabras sobre el espacio de filas de esta matriz siendo el mismo que el espacio generado por tus $n+1$ vectores, o algo así.

3voto

GmonC Puntos 114

Más como un ejercicio privado que para responder a esta pregunta en particular, he intentado escribir una prueba de los principales hechos que conducen a la definición de dimensión, utilizando solo las definiciones básicas de combinación lineal, espacio generado, dependencia lineal, conjunto generador y base; aparte de eso, solo asumo algunos hechos intuitivamente (y formalmente) obvios como que un subconjunto de un conjunto linealmente independiente es linealmente independiente. Trabajo en espacios vectoriales finitamente generados, pero como no conozco la existencia de bases desde el principio, no puedo limitarme a espacios $\Bbb R^n$.

Sé que el lema de intercambio de Steinitz logra esto, haciendo todo de una sola vez, pero creo que la prueba inductiva resultante es algo técnica, y me gustaría evitar la vaguedad como "hasta el reordenamiento" y "sin pérdida de generalidad". He intentado lograr esto dividiendo en diferentes niveles de detalle, lo que lleva a evitar las ecuaciones casi por completo. Sin embargo, estoy algo insatisfecho con mi formulación, especialmente con la prueba final que parece más difícil en papel de lo que lo hizo en mi imaginación.

Uno debe usar en algún momento la inversibilidad de escalares distintos de cero; para deshacerse de eso, comienzo con un sencillo lema sobre dependencia lineal. Luego viene una proposición que construye bases, explícitamente, pero sin preocuparse por contar elementos. Esto se hace en el teorema final, que es realmente solo un comentario sobre la construcción en la proposición.

Hablo principalmente sobre familias de vectores en lugar de conjuntos, porque todo depende de una manera esencial del orden implícito por los índices (y porque no se excluyen las múltiples ocurrencias del mismo vector); sin embargo, uso la notación de construcción de conjuntos por conveniencia, que realmente no es coherente con ese punto de vista. Creo que la proposición a continuación se puede generalizar a la situación de dimensión infinita usando familias de vectores indexadas por un conjunto bien ordenado, pero para el teorema dudaría que se pueda hacer.

Para constancia, todo esto no requiere conmutatividad, y funciona sin problemas para módulos derechos generados finitamente (digamos) sobre un anillo de división. Esperaría que esto sea cierto para cualquier prueba de estos asuntos, si se escribe cuidadosamente.

Lema. Si alguna relación lineal entre miembros de un conjunto $X$ de vectores implica algún vector $v\in X$ con coeficiente distinto de cero $c_v$, entonces $v$ es una combinación lineal de los vectores restantes: $\def\Span{\operatorname{Span}}v\in\Span(X-\{v\})$.

Escriba la relación $\sum_{x\in X}c_xx=0$ como $c_vv=-\sum_{x\in X-\{v\}}c_xx$; ahora multiplique por $c_v^{-1}$ (usando que $c_v\neq0$).

Proposición. Si $S=\{f_1,\ldots,f_k\}$ es una familia linealmente independiente de vectores en$~V$, y $T=\{g_1,\ldots,g_l\}$ es una familia de vectores que genera$~V$, entonces $V$ tiene una base $S\cup C$, donde $$C=\{\,g_i\mid\,g_i\notin\Span(S\cup\{g_1,\ldots,g_{i-1}\})\}\subseteq T.$$

Para $0\leq i\leq l$, ponga $X_i=S\cup\{g_1,\ldots,g_i\}$ y $X_i'=S\cup(\{g_1,\ldots,g_i\}\cap C)$; mostramos por inducción sobre $i$ que el conjunto $X_i'$ es una familia linealmente independiente que genera$~\Span(X_i)$ (en otras palabras, una base de ese subespacio); la instancia $i=l$ da la proposición ya que $\Span(X_l)\supseteq\Span(T)=V$. Para $i=0$ esto se cumple por la independencia lineal de $S$. Para $i>0$ se distinguen los casos $g_i\notin C$ y $g_i\in C$, ambos de los cuales son fáciles. Para $g_i\notin C$ se usa que agregar al conjunto $X_{i-1}$ el vector $g_i$ que ya está en su espacio no cambia ese espacio. Para $g_i\in C$ se usa que agregar el mismo vector $g_i$ a dos conjuntos $X_{i-1},X_{i-1}'$ con el mismo espacio mantiene su espacio sin cambios, mientras que $g_i\notin\Span(X_{i-1})=\Span(X_{i-1}')$ asegura que la familia independiente $X_{i-1}'$ permanece independiente después de agregar$~g_i$ (la contrapositiva del lema dice que cualquier relación lineal involucra solo a $X_{i-1}'$, y por lo tanto es trivial).

Ahora, para cualquier familia independiente$~S$ y familia generadora$~T$, denotemos por $C(S,T)$ al conjunto $C$ de la proposición, y por $E(S,T)$ la base $S\cup C(S,T)=S\cup C$ de la proposición. Obtenemos en particular, para cualquier espacio que admita un conjunto generador finito$~T$ (espacio finitamente generado), una base $E(\emptyset,T)$ de$~V$. Por otro lado, para cualquier base $B$ de$~V$ se tiene $E(B,T)=B$, ya que $C=\emptyset$ en la proposición. Ahora podemos mostrar que la dimensión está bien definida en el caso de espacios finitamente generados.

Teorema. Para cualquier $S,T$ como arriba, la base $E(S,T)$ tiene el mismo número de elementos que $E(\emptyset,T)$.

La demostración es por inducción sobre el tamaño de$~S$, siendo trivial el caso $S=\emptyset$. Entonces considere $S=\{f_1,\ldots,f_k\}$ con $k>0$, y asumiendo que el resultado se cumple para $S^-=\{f_1,\ldots,f_{k-1}\}$. A partir de la definición es claro que $C(S,T)\subseteq C(S^-,T)$, y debemos mostrar que el complemento $C(S^-,T)\setminus C(S,T)$ contiene exactamente un elemento. Dado que $E(S^-,T)$ es una base de$~V$, hay una expresión única de $f_k$ como combinación lineal$~L$ de sus elementos. Esa combinación involucra algún elemento de$~C(S^-,T)$ con coeficiente distinto de cero, porque la familia$~S$ es linealmente independiente. Si $i$ es maximal tal que $g_i\in C(S^-,T)$ aparece con coeficiente distinto de cero en$~L$, entonces por el lema $g_i\in\Span(f_1,\ldots,f_k,g_1,\ldots,g_{i-1})$, y por lo tanto $g_i\in C(S^-,T)\setminus C(S,T)$. Recíprocamente, si $g_j\in C(S^-,T)\setminus C(S,T)$ entonces $g_j\in\Span(\{f_1,\ldots,f_k,g_1,\ldots,g_{j-1}\}\cap E(S,T))$ y la combinación lineal que atestigua esto debe involucrar a $f_k$ con un coeficiente distinto de cero (debido a $g_j\in C(S^-,T)$); por el lema y la unicidad de la expresión$~L$ para $f_k$ esto fuerza $j=i$, completando la prueba.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X