¿Por qué, si tenemos más columnas que filas, las columnas no pueden ser linealmente independientes?
Por ejemplo, supongamos que tengo un conjunto de vectores $\{ v_1, v_2, v_3, v_4\}$ , $\forall v_i \in \mathbb{R}^3$ .
¿Por qué, si tenemos más columnas que filas, las columnas no pueden ser linealmente independientes?
Por ejemplo, supongamos que tengo un conjunto de vectores $\{ v_1, v_2, v_3, v_4\}$ , $\forall v_i \in \mathbb{R}^3$ .
Su pregunta está relacionada con el [dimensión](https://en.wikipedia.org/wiki/Dimension(vectorspace)) de un espacio vectorial. Hay algunos hechos fundamentales sobre este concepto, tales como:
Si $V$ es un espacio vectorial de dimensión finita, y $U\subset V$ es un subespacio, entonces $\dim U\leq\dim V$ .
Un conjunto de $n$ vectores linealmente independientes abarca un $n$ -espacio vectorial de dimensiones.
Combinando estos dos hechos se obtiene la prueba deseada.
Si $n$ es la dimensión de su espacio vectorial, entonces cualquier conjunto de vectores que contenga estrictamente más de $n$ los elementos no pueden ser linealmente independientes.
Denota por $(e_1,\ldots,e_n)$ la base estándar de $\mathbb R^n$ y supongamos que $(f_1,\ldots,f_{n+1})$ es linealmente independiente. Podemos escribir $$f_1=\sum_{k=1}^n a_k e_k$$ y como $f_1\ne 0$ , $\exists a_k\ne 0$ y WLOG suponen $a_1\neq0$ entonces $$e_1=\frac{1}{a_1}\left(f_1-\sum_{k=2}^n a_k e_k\right)$$ por lo que vemos que $(f_1,e_2,\ldots,e_n)$ abarca $\mathbb R^n$ .
Ahora repite el mismo método $n-1$ más veces y encontramos que $(f_1,\ldots,f_{n})$ abarca $\mathbb R^n$ por lo que el vector $f_{n+1}$ es una combinación lineal de los otros vectores $f_i$ que es una contradicción.
@nbro Vale la pena señalar que hay varias generalizaciones de "span" más allá del contexto de los espacios vectoriales. Por ejemplo, dado un conjunto $S$ de elementos de una [estructura de primer orden]() $\mathcal{A}$ podemos observar el conjunto de elementos de $\mathcal{A}$ que son definibles con parámetros de $S$ . Dada esta noción, podemos hablar de "conjuntos no redundantes" (el análogo de la independencia lineal) y de conjuntos mínimos que lo abarcan todo. Sin embargo, a mayor generalidad, los hechos básicos fallan: por ejemplo, no todos los conjuntos mínimos que abarcan todo tienen la misma cardinalidad, por lo que la "dimensión" no suele tener sentido.
No soy muy bueno con las pruebas matemáticas o la notación de este sitio, pero aquí hay (espero) una manera más intuitiva de pensar en ello.
Para que los vectores sean linealmente independiente (artículo de Wikipedia) tenemos esto:
Se dice que un conjunto de vectores es lineal dependiente si uno de los vectores del conjunto puede definirse como una combinación lineal de los demás vectores. Si ningún vector del conjunto puede escribirse de este modo, se dice que los vectores son lineales independiente .
Intentemos hacer algunos vectores que no dependan unos de otros.
Definamos $v_x$ = <1, 0, 0> - Es decir, el vector unitario que va en la dirección del eje x (no tiene que ser un vector unitario, pero los vectores unitarios son divertidos así que es lo que estoy usando). Entonces también definimos $v_y$ = <0, 1, 0>, y $v_z$ = <0, 0, 1>.
Nota: $v_y$ y $v_z$ no puede definirse en términos de $v_x$ o entre sí - los tres vectores son independiente .
Esencialmente hemos definido los tres ejes que todos conocemos y amamos para $\mathbb{R}^3$ . Entonces, la pregunta es, ¿cómo definirás $v_w = <a, b, c>$ tal que a
, b
y c
no puede estar hecho de alguna combinación de $v_x, v_y, v_z$ - y verás que no puedes hacerlo. No importa cómo defina $v_w$ lo definirá en términos de $v_x, v_y, v_z$ . Por ejemplo. $v_w = <0.5, 0.1, 0.2>$ = 0.5 $v_x$ + 0.1 $v_y$ + 0.2 $v_z$
Desde $v_w$ puede definirse en términos de los otros vectores, es dependiente .
También puedes hacer esto para otros espacios vectoriales, no importa su tamaño. La clave en un $\mathbb{R}^n$ espacio vectorial, es que tienes $n$ direcciones que se pueden mover y que son ortogonales entre sí. Una vez que tienes un vector que describe cada dirección ortogonal, no puedes hacer otro vector que no dependa de alguna manera de los vectores que ya tienes.
La prueba más directa que he visto hace una matriz a partir de los vectores, tomados como filas. Añade columnas de ceros para elevar al cuadrado la matriz, y toma el determinante. Con una o más columnas de ceros, el determinante es cero, por lo que las filas deben ser dependientes. Las columnas de ceros no cambian la dependencia de las filas, por lo que los vectores originales deben ser dependientes.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.
0 votos
El rango máximo es el mínimo de las dimensiones de la matriz. Así que tienes una matriz de 3x4, el rango máximo posible es min(3,4) = 3.
0 votos
El rango es una propiedad de una matriz. Cuando se introducen vectores en una matriz, el rango estará en relación con la dimensión del espacio vectorial "abarcado" por esos vectores.