15 votos

¿Por qué ' t la definición de dependencia requieren que se puede expresa cada vector en términos de los otros?

Yo estaba revisando mi fundamentos de álgebra lineal y se dio cuenta de que estoy confundido acerca de la independencia y la dependencia. Entiendo que, por definición, la independencia significa:

Un conjunto de vectores $\{x_1,\ldots,x_k\}$ es independiente de si la única combinación lineal que da el vector cero es el vector cero en sí misma. es decir, si $[x_1, \ldots, x_k]c = Xc = 0$ fib $c=0$

Yo entiendo lo que la definición lo dice, pero es una especie de que va en contra de mi intuición de lo que la definición de la dependencia debe ser (y, por tanto, su negación de la independencia). En mi cabeza de forma intuitiva la dependencia significa que un conjunto de vectores depende de cada uno de los otros. En otras palabras, uno siempre debe ser capaz de expresar un vector como combinación lineal de los otros. Algo así como:

$$ \forall x_i \in \{x_1,\ldots,x_k\}, \exists c \neq 0 : \sum_{j \neq i} c_j x_j = x_i$$

sin embargo con mi definición anterior (la que está mal y no es lo que la definición estándar, es decir, yo sé, pero estoy tratando de llegar a un acuerdo el por qué de su mal) implica que un conjunto independiente de vectores con el vector cero se viró no es dependiente (es decir, independiente), que es el opuesto de lo que debería ser. es decir, limpiar el vector cero y el conjunto sigue siendo independiente (esto debe estar mal porque [0,...,0,1] no es el vector cero, y sólo el cero vector debe dar a 0).

Considere por un simple ejemplo, $ \{ x_1,x_2,0 \}$ donde $x_1,x_1$ sólo dar a cero con el vector cero (definición estándar de la independencia). Con mi definición de las cosas de su obvio que estos vectores son independientes. En realidad deberían ser dependiente, porque [0,0,1] está ahora en el nullspace pero las cosas sólo son independientes de si sólo el vector cero está en el nullspace. Con mi definición de los vectores son independientes, porque no hay manera de expresar cualquiera de ellos, en términos de cada uno de los otros. Por ejemplo:

  1. $a x_1 + b x_2 = 0$
  2. $c x_1 + d 0 = x_2$
  3. $e x_2 + f 0 = x_1$

no de los de arriba puede ser hecha realidad con cero (no trivial) de las combinaciones lineales. Por lo tanto, los vectores no son dependientes por lo que son independientes. Sé que es una especie de "caso extremo" condición de la definición, sino que es una especie de volteado de mi mundo para averiguar que he estado pensando acerca de un concepto fundamental como la independencia y la dependencia, erróneamente, en álgebra lineal y estoy tratando de llegar a un acuerdo.

¿Por qué mi intuición incorrecta? ¿Por qué fue la definición estándar de la independencia como $Xc = 0 \iff c=0$ la definición aceptada de la independencia? Qué hay de malo con mi definición? Son, esencialmente, la definición de la misma, excepto por este extraño caso extremo?


la última nota de pie de página es acerca de lo que la palabra de dependencia de los medios con respecto a la cantidad y el vector cero. Creo que lo que mi última confusión se reduce a es la razón por la $0x = \mathbf{0}$ es considerado como $\mathbf{0}$ dependiendo $x$. Supongo que en mi cabeza diciendo que no necesitamos de $x$ a expresar $\mathbf{0}$ parece significar que $\mathbf{0}$ no necesita $x$ (o cualquier otro vector). Pero la convención de acuerdo con todo lo señalado por todos en este conjunto de respuestas apunta a lo contrario. No entiendo por qué. Es que acaba de tener una ecuación de la vinculación de los términos medios de la dependencia, incluso si se especifica con un cero que realmente no necesita el plazo?

22voto

Homer Puntos 198

Su intuición lineal (en)la dependencia está muy cerca. Basado en su intuición, la definición que estamos buscando es:

$\{v_1, ..., v_k\}$ es linealmente dependiente si existe un índice $i$ y escalares $c_1, ..., c_k$ (excluyendo $c_i$) tal que $v_i = \sum_{j \ne i} c_j v_j.$

Se puede demostrar que esto es equivalente a la definición estándar.

Observe cómo esto difiere de su propuesta de definición:

(1) dice Que existe un $v_i$, no para todos los $v_i$.

(2) no es cero la restricción en el $c_i$.

(1) es importante, porque todo lo que se necesita es una sola redundancia para obtener dependencia lineal. No todos los vectores que tienen que expresable en términos de los otros. A ver por qué este es el caso, sólo piense en el caso en el que un conjunto de $\{v_1, \ldots, v_k\}$ ya es dependiente y, a continuación, de repente tuve que agregar un $v_{k+1}$ que no puede ser expresado como una combinación lineal de $v_1, \ldots, v_k$. La adición de un vector a un conjunto dependiente no debería convertirlo en un conjunto independiente.

Como de (2), el estándar de definición de necesidades de decir que $c$'s no puede ser todo de 0, porque no desea $\sum 0 v_i = 0$ implicar dependencia. Pero con la definición anterior, que ya hemos señalado un vector a tiene un coeficiente de 1 (que no es 0), por lo que no se necesita ninguna condición en la c más.

14voto

zipirovich Puntos 31

Deja que me ocupe de tu última pregunta (y espero que ayude con la clarificación de algunos de sus conceptos erróneos):

Son, esencialmente, la definición de la misma, excepto por este extraño caso extremo?

No, no sólo en ese caso. Considere por ejemplo, el siguiente conjunto de tres vectores en $\mathbb{R}^2$:

$$\mathbf{v}_1=\begin{bmatrix}1\\0\end{bmatrix}, \quad \mathbf{v}_2=\begin{bmatrix}2\\0\end{bmatrix}, \quad \mathbf{v}_3=\begin{bmatrix}0\\1\end{bmatrix}.$$

Es fácil ver que este conjunto es linealmente dependiente de acuerdo con la definición estándar, porque $$2\mathbf{v}_1+(-1)\mathbf{v}_2+0\mathbf{v}_3=\mathbf{0}.$$ Sin embargo no satisfacen su definición. Aunque los vectores $\mathbf{v}_1$ $\mathbf{v}_2$ puede ser expresado como (no trivial) de las combinaciones lineales de las otras, a saber. $\mathbf{v}_1=0.5\mathbf{v}_2+0\mathbf{v}_3$ $\mathbf{v}_2=2\mathbf{v}_1+0\mathbf{v}_3$ , que no podemos hacer lo mismo con el último vector debido a que la ecuación $$\mathbf{v}_3=c_1\mathbf{v}_1+c_2\mathbf{v}_2$$ claramente no tiene soluciones.

Permítanme tratar de describir de manera informal lo que creo que está pasando aquí. La definición estándar de la dependencia lineal básicamente dice que hay una dependencia a algún lugar, pero no necesariamente en todas partes, como usted parece creer.

Como @AOrtiz ya se dijo, una manera de pensar de la dependencia es que significa la redundancia en el sistema de vectores. Mírelo de esta manera. Dado un conjunto de vectores, es posible que desee construir su extensión, es decir, el conjunto de todas las combinaciones lineales de los vectores. En caso de que el conjunto es linealmente dependiente, entonces es redundante en el sentido de que puede eliminar algunos (pero no arbitrario!) vectores y todavía tienen el mismo lapso. La definición estándar de la dependencia lineal nos ayuda a detectar si ese es el caso.

6voto

Theo Bendit Puntos 2468

Me parece que muchos de mis estudiantes a pensar de la misma manera. En lugar de pensar acerca de null combinaciones lineales, que por lo general prefieren pensar en términos de vectores como combinación lineal de los otros vectores. Y, sinceramente, yo probablemente también. La definición de independencia lineal que es más intuitiva geométricas para mí, es que no hay vector en la lista puede ser expresado como combinación lineal de los otros. Esto es equivalente a las otras definiciones de independencia lineal.

La negación de esto es que algunos de vectores (no todos los vectores) en la lista se puede escribir como una combinación lineal de los demás. Que es la dependencia lineal. No tiene nada que ver con la no-cero combinaciones lineales (de lo contrario, como se señaló, agregando $0$ a la lista de preservar la independencia lineal). El vector cero es siempre una combinación lineal de los otros vectores, no añade nada a la luz, y por lo tanto nada a la dimensión.

Hay otros casos, aparte de $0$, donde no todos los vectores en un linealmente dependiente de la lista puede ser expresado por una combinación lineal de los demás. Por ejemplo,

$$((1, 0), (2, 0), (0, 1))$$

Algunos vectores (es decir,$(1, 0)$$(2, 0)$) puede ser expresado como combinación lineal de los otros, pero no todos. Todavía hay dependencia en la lista.

Espero que ayude.

4voto

AOrtiz Puntos 38

Preferiría que el estado de su definición de independencia lineal de este modo:

Definición: El subconjunto $\{v_1,\dots,v_n\}\subset V$ es linealmente independiente si siempre $a_1,\dots,a_n\in F$ y $$ a_1v_1+\dots+a_nv_n = 0, $$ a continuación,$a_1 = \dots = a_n = 0$.

Vamos a ver cómo su intuición se rompe:

Definición: Un conjunto $A=\{v_1,\dots,v_n\}\subset V$ es linealmente dependiente si para cada una de las $v_i\in A$ no es una combinación lineal no trivial $$ a_1v_1+\dots+\widehat{a_iv_i}+\dots+a_nv_n = v_i, $$ donde la notación $a_1v_1+\dots+\widehat{a_iv_i}+\dots+a_nv_n$ significa que $a_iv_i$ está excluido de la suma.

Esto nos dice que todos los vectores en el conjunto $A$ puede ser expresado como una combinación lineal no trivial de los otros vectores. Bien, lo que si tenemos en cuenta el conjunto $A=\{e_1, 0\}$ donde $e_1 = \begin{bmatrix} 1 \\ 0\end{bmatrix}$ es un vector columna de $\Bbb R^2$, e $0$ es el vector cero. Entonces, de acuerdo a nuestra definición, este conjunto $A$ es no dependiente, ya que no podemos expresar $0$ como una combinación lineal no trivial de $e_1$. Sin embargo, esperamos que este sea dependiente porque, por supuesto, $0$ no depende de $e_1$$0 = 0e_1$. [Como dije en mi comentario a la OP a continuación, no me gusta cómo me originalmente formulada de esta-prefiero explicar la intuición de por qué $\{e_1,0\}$ es dependiente únicamente en términos de la redundancia que $0$ trae a este conjunto.]

Una mejor intuición de independencia lineal es que un conjunto es linealmente independiente si estamos especificando una cantidad mínima de información para el espacio que se extiende. Es decir, podemos considerar siempre el lapso de un conjunto de vectores $A\subset V$. Si se especifica la cantidad mínima de información para lograr el lapso de $A$, entonces no hay despidos: los vectores son independientes. Tan dependiente de los conjuntos deben ser aquellos en los que podemos encontrar la información redundante de sobra.

Para ser concretos sobre la idea de cómo la dependencia de $\leftrightarrow$ despidos, considerar el conjunto $\{e_1,0\}$ nuevo; esta vez considere la posibilidad de su extensión demasiado, es decir, $\{a_1e_1 + a_20:a_1,a_2\in F\}$. El $0$ vector es redundante porque $\operatorname{span}(\{e_1,0\}) = \operatorname{span}(\{e_1\})$. Por lo tanto el $0$ vector es redundante, y el conjunto es dependiente.

Por otro lado, si un conjunto es independiente, como $A=\{e_1,e_2\}\subset\Bbb R^2$, entonces no deberíamos ser capaz de eliminar incluso un vector del conjunto $A$ sin cambio $\operatorname{span}(A)$. Esto lleva en sí fuera de aquí, por supuesto-reforzar la intuición de que la independencia de $\leftrightarrow$ especificando la cantidad mínima de información.

3voto

Michael Hardy Puntos 128804

Decir que uno de los vectores es que una combinación lineal de los otros exige a un vector para jugar un papel diferente de los demás. Y es posible que haya algunos entre ellos que no son combinaciones lineales de las otras, pero también algunos que son.

De la definición convencional trata de hacer una declaración en la que ninguno de los vectores juega un papel diferente de los roles de los otros, al menos en la declaración de la definición.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X