5 votos

Mostrar que el sistema de $v_1 - u, \dots, v_n - u$ es linealmente dependiente precisamente al $\lambda_1 + \dots + \lambda_n=1$

Deje $v_1, \dots v_n$ ser linealmente independientes del sistema de la $\mathbb{K}$-vectorspace $V$ e $u = \lambda_1v_1 + \dots + \lambda_n v_n$con $\lambda_1, . . . \lambda_n \in \mathbb{K}$. Mostrar que el sistema de $v_1 - u, \dots, v_n - u$ es linealmente dependiente, precisamente cuando $\lambda_1 + \dots + \lambda_n=1$

En otras palabras, he a$u=\sum\limits^n_{i=1}\lambda_iv_i$ y que debo mostrar, que $$v_1 - \left(\sum\limits^n_{i=1}\lambda_iv_i\right), \dots, v_n - \left(\sum\limits^n_{i=1}\lambda_iv_i\right)$$ is linear dependend only for $\lambda_1 + \dots + \lambda_n=1$
Así, todos los $v_i$'s de terminar una $v_i$:
$$ -\sum\limits^{n}_{i=2}\lambda_iv_i, \dots, -\sum\limits^{n-1}_{i=1}\lambda_iv_i$$ No estoy seguro de cómo ir sobre exactamente. Yo podría suponer, que $\lambda_1 + \dots + \lambda_n=1$ y me gustaría conseguir $$ -\sum\limits^{n}_{i=2}v_i, \dots, -\sum\limits^{n-1}_{i=1}v_i=\left(-v_2-v_3-\dots-v_n\right),\dots,\left(-v_1-v_2-\dots-v_{n-2}-v_{n-1}\right)$$ , Pero que no me ayude, o me estoy perdiendo algo?


EDIT: el Uso de N. S. de sugerencia, finalmente entendí: Debido a $\beta_i=\frac{\beta_i}{\beta_1+\dots+\beta_n} \quad i\in\{1,\dots,n\}$ se puede decir que $\beta_1+\beta_2+\dots+\beta_n=\frac{\beta_1}{\beta_1+\beta_2+\dots+\beta_n}+\dots+\frac{\beta_n}{\beta_1+\beta_2+\dots+\beta_n}=\frac{\beta_1+\beta_2+\dots+\beta_n}{\beta_1+\beta_2+\dots+\beta_n}=1$

4voto

Lissome Puntos 31

Sugerencia 1 Si $\lambda_1+..+\lambda_n=1$ luego $$u = \lambda_1(u-v_1) + \dots + \lambda_n (u-v_n)=(\lambda_1+...+\lambda_n)u- \left( \lambda_1v_1 + \dots + \lambda_n v_n\right)$$

Ahora uso la definición de $u$ y la relación en $\lambda's$

Sugerencia 2 Suponga que $$\beta_1(u-v_1) + \dots + \beta_n (u-v_n)=0$$ con que no todos los coeficientes de 0.

Entonces $$(\beta_1+...+\beta_n)u-\beta_1 v_1-...-\beta_n v_n=0 \\ (\beta_1+...+\beta_n)(\lambda_1v_1 + \dots + \lambda_n v_n)-\beta_1 v_1-...-\beta_n v_n=0 \\ \left((\beta_1+...+\beta_n)\lambda_1-\beta_1\right)v_1 + \dots +\left((\beta_1+...+\beta_n)\lambda_n-\beta_n\right)v_n=0 \\ $$

El uso de independencia Lineal de obtener $$(\beta_1+...+\beta_n)\lambda_1=\beta_1 \\ (\beta_1+...+\beta_n)\lambda_2=\beta_2 \\ .... \\ (\beta_1+...+\beta_n)\lambda_n=\beta_n $$

Ahora agregue las relaciones juntos, y demostrar que las $\beta_1+...+\beta_n \neq 0$.

3voto

Christoph Puntos 8263

Podemos suponer sin pérdida de generalidad que $v_1,\dots,v_n$ son los vectores de la base de $\mathbb K^n$. (Por qué?)

Por lo tanto $u=(\lambda_1,\dots,\lambda_n)^t \in \Bbb K^n$ y para determinar la dependencia lineal de los vectores $v_1-u,\dots,v_n-u$ es suficiente para calcular el determinante de $$ \begin{pmatrix} \lambda_1 -1 & \lambda_1 & \lambda_1 & \cdots & \lambda_1 \\ \lambda_2 & \lambda_2-1 & \lambda_2 & \cdots & \lambda_2 \\ \lambda_3 & \lambda_3 & \lambda_3-1 & \ddots & \vdots \\ \vdots & \vdots & \ddots & \ddots & \lambda_{n-1} \\ \lambda_n & \lambda_n & \cdots & \lambda_{n-1} & \lambda_n-1 \end{pmatrix}. $$ Si restamos la segunda columna de la primera, la tercera de la segunda, etc. tenemos $$ \begin{pmatrix} -1 & 0 & 0 & \cdots & \lambda_1 \\ 1 & -1 & 0 & \cdots & \lambda_2 \\ 0 & 1 & -1 & \ddots & \vdots \\ \vdots & \vdots & \ddots & \ddots & \lambda_{n-1} \\ 0 & 0 & \cdots & 1 & \lambda_n-1 \end{pmatrix}. $$ Ahora agregue la primera fila a la segunda, luego la segunda a la tercera, ... para obtener $$ \begin{pmatrix} -1 & 0 & 0 & \cdots & \lambda_1 \\ 0 & -1 & 0 & \cdots & \lambda_1+\lambda_2 \\ 0 & 0 & -1 & \ddots & \vdots \\ \vdots & \vdots & \ddots & \ddots & \lambda_1+\cdots+\lambda_{n-1} \\ 0 & 0 & \cdots & 0 & \lambda_1+\cdots+\lambda_n-1 \end{pmatrix}. $$ Esta es una triangular superior de la matriz y el determinante es (signo) igual a $\lambda_1+\cdots+\lambda_n-1$ que es igual a cero, precisamente cuando $$ \lambda_1+\cdots+\lambda_n = 1. $$

1voto

lhf Puntos 83572

Aquí es otra toma.

Deje $u_i = v_i - u$. Entonces $$ \pmatrix{ u_1 \\ u_2 \\ \vdots \\ u_n } = \pmatrix{ 1-\lambda_1 & -\lambda_2 & \cdots & -\lambda_n \\ -\lambda_1 & 1-\lambda_2 & \cdots & -\lambda_n \\ \cdots& \cdots & \cdots & \cdots\\ -\lambda_1 & -\lambda_2 & \cdots & 1-\lambda_n \\ } \pmatrix{ v_1 \\ v_2 \\ \vdots \\ v_n } $$ A continuación, $u_1, \dots, u_n$ son linealmente independientes si la matriz es invertible.

Vamos a calcular el determinante de la matriz mediante operaciones de fila para convertir a la forma triangular.

Resta la última línea de los demás. Tenemos una forma casi triangular superior de la matriz con $1$ en la diagonal, a excepción de la última línea, que permanece invariable, por supuesto. Ahora agregue adecuado de los múltiplos de cada línea a la última línea para reducir a una línea de ceros excepto para la última entrada, que es $1-\lambda_1-\lambda_2 - \cdots - \lambda_n$. Este es el determinante de la matriz original y así es invertible iff $\lambda_1 + \dots + \lambda_n \ne 1$.

1voto

GmonC Puntos 114

Todos los vectores en el problema (en particular, $u$) se encuentran en el lapso $W$ de $v_1,\ldots,v_n$, por lo que podemos restringir a que el subespacio, de los cuales, $[v_1,\ldots,v_n]$ es una base. Deje $F:W\to K$ ser de la forma lineal teniendo en cuenta el valor $1$ en cada uno de los vectores de la base $v_i$. Las diferencias entre los vectores $v_i-u$ de toda la mentira en $\ker(f)$ y el intervalo que hyperplane de$~W$, por lo que los vectores son linealmente dependientes si y sólo si cada uno de estos vectores en sí se encuentra en $\ker(f)$. Desde $f(v_i-u)=1-f(u)$ esto sucede si y sólo si $f(u)=1$, y dado que $u = \lambda_1v_1 + \cdots + \lambda_n v_n$, esto significa que $\lambda_1+ \cdots + \lambda_n=1$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X