Yo estaba revisando mi fundamentos de álgebra lineal y se dio cuenta de que estoy confundido acerca de la independencia y la dependencia. Entiendo que, por definición, la independencia significa:
Un conjunto de vectores $\{x_1,\ldots,x_k\}$ es independiente de si la única combinación lineal que da el vector cero es el vector cero en sí misma. es decir, si $[x_1, \ldots, x_k]c = Xc = 0$ fib $c=0$
Yo entiendo lo que la definición lo dice, pero es una especie de que va en contra de mi intuición de lo que la definición de la dependencia debe ser (y, por tanto, su negación de la independencia). En mi cabeza de forma intuitiva la dependencia significa que un conjunto de vectores depende de cada uno de los otros. En otras palabras, uno siempre debe ser capaz de expresar un vector como combinación lineal de los otros. Algo así como:
$$ \forall x_i \in \{x_1,\ldots,x_k\}, \exists c \neq 0 : \sum_{j \neq i} c_j x_j = x_i$$
sin embargo con mi definición anterior (la que está mal y no es lo que la definición estándar, es decir, yo sé, pero estoy tratando de llegar a un acuerdo el por qué de su mal) implica que un conjunto independiente de vectores con el vector cero se viró no es dependiente (es decir, independiente), que es el opuesto de lo que debería ser. es decir, limpiar el vector cero y el conjunto sigue siendo independiente (esto debe estar mal porque [0,...,0,1] no es el vector cero, y sólo el cero vector debe dar a 0).
Considere por un simple ejemplo, $ \{ x_1,x_2,0 \}$ donde $x_1,x_1$ sólo dar a cero con el vector cero (definición estándar de la independencia). Con mi definición de las cosas de su obvio que estos vectores son independientes. En realidad deberían ser dependiente, porque [0,0,1] está ahora en el nullspace pero las cosas sólo son independientes de si sólo el vector cero está en el nullspace. Con mi definición de los vectores son independientes, porque no hay manera de expresar cualquiera de ellos, en términos de cada uno de los otros. Por ejemplo:
- $a x_1 + b x_2 = 0$
- $c x_1 + d 0 = x_2$
- $e x_2 + f 0 = x_1$
no de los de arriba puede ser hecha realidad con cero (no trivial) de las combinaciones lineales. Por lo tanto, los vectores no son dependientes por lo que son independientes. Sé que es una especie de "caso extremo" condición de la definición, sino que es una especie de volteado de mi mundo para averiguar que he estado pensando acerca de un concepto fundamental como la independencia y la dependencia, erróneamente, en álgebra lineal y estoy tratando de llegar a un acuerdo.
¿Por qué mi intuición incorrecta? ¿Por qué fue la definición estándar de la independencia como $Xc = 0 \iff c=0$ la definición aceptada de la independencia? Qué hay de malo con mi definición? Son, esencialmente, la definición de la misma, excepto por este extraño caso extremo?
la última nota de pie de página es acerca de lo que la palabra de dependencia de los medios con respecto a la cantidad y el vector cero. Creo que lo que mi última confusión se reduce a es la razón por la $0x = \mathbf{0}$ es considerado como $\mathbf{0}$ dependiendo $x$. Supongo que en mi cabeza diciendo que no necesitamos de $x$ a expresar $\mathbf{0}$ parece significar que $\mathbf{0}$ no necesita $x$ (o cualquier otro vector). Pero la convención de acuerdo con todo lo señalado por todos en este conjunto de respuestas apunta a lo contrario. No entiendo por qué. Es que acaba de tener una ecuación de la vinculación de los términos medios de la dependencia, incluso si se especifica con un cero que realmente no necesita el plazo?