3 votos

¿Cómo mostrar que$\{u_1,\sum_i^2{u_i},\cdots,\sum_i^n{u_i}\}$ es linealmente independiente si$\{u_1,{u_2},\cdots,{u_n}\}$?

Supongamos $\{u_1,{u_2},\cdots,{u_n}\}$ es linealmente independiente necesitamos mostrar $\{u_1,\sum_i^2{u_i},\cdots,\sum_i^n{u_i}\}$ es linealmente independiente. Por lo tanto, supongamos que

$$ \alpha_1u_1+\alpha_2\sum_i^2{u_i}+\cdots+\alpha_n\sum_i^n{u_i}=0 $$ para algunos $\alpha_1,\alpha_2,\cdots,\alpha_n \in \mathbb{R}$.

Debemos mostrarles a $\alpha_1=\alpha_2=\cdots,\alpha_n=0$.

Sé que tiene que venir con algo que utiliza linealmente de la independencia de $\{u_1,{u_2},\cdots,{u_n}\}$ pero no sé cómo?

Extensión: ¿Cómo podemos demostrar que la inversa?

4voto

Clement C. Puntos 16603

Supongamos $(\lambda_1,...,\lambda_n)$ es un conjunto de coeficientes tales que $$ 0 = \sum_{i=1}^n \lambda_iv_i \etiqueta{1} $$ donde $v_i = \sum_{k=1}^i u_k$. Queremos mostrar que, a continuación, uno debe tener $ \lambda_i=0$ para todos los $1\leq i\leq n$.

Podemos reescribir esto como $$ 0 = \sum_{i=1}^n \lambda_i \sum_{k=1}^i u_k= \sum_{k=1}^n \sum_{i=k}^n \lambda_i u_k = \sum_{k=1}^n \left(\sum_{i=k}^n \lambda_i\right) u_k \etiqueta{2} $$ y así, por la independencia de la $u_k$'s, debemos tener $$ \sum_{i=k}^n \lambda_i = 0 \qquad \forall 1\leq k\leq n \etiqueta{3} $$ Mostrar que esto implica $ \lambda_i=0$ para todos los $1\leq i\leq n$ (por ejemplo, por inducción, teniendo en $k$ de $n$ a $1$ en (2)).


Para demostrar lo contrario: se supone que, de nuevo dejando $v_i = \sum_{k=i}^n u_i$que $(v_1,\dots,v_n)$ es linealmente independiente. Deje $\alpha_1,\dots,\alpha_n$ tales que $$ 0 = \sum_{i=1}^n \alpha_i u_i $$ Tomando nota de que $u_i = v_i - v_{i+1}$ (para $1\leq i<n$, obtenemos $$ 0 = \alpha_n v_n + \sum_{i=1}^{n-1} \alpha_i v_i - \sum_{i=1}^{n-1} \alpha_i v_{i+1} = \alpha_n v_n + \sum_{i=1}^{n-1} \alpha_i v_i - \sum_{i=2}^{n} \alpha_{i-1} v_{i} = \alpha_1 v_1 + \sum_{i=2}^{n} \alpha_i - \alpha_{i-1}) v_{i} $$ Por nuestra suposición de independencia lineal de la $v_i$'s, tenemos $0 = \alpha_1 = \alpha_i - \alpha_{i-1}$ (para todos los $i$). De nuevo por la inducción, esto implica que $\alpha_i = 0$ para todos los $i$. Que muestra que $(u_1,\dots,u_n)$ es linealmente independiente.

1voto

Jimmy Sabater Puntos 219

A continuación, le indicamos cómo continuar: si escribe los términos en la suma, puede factorizar el $u_i's$ para obtener

PS

Ahora use que las u son LI para obtener un sistema triangular superior que da, de manera bastante trivial, $$ ( \alpha_1 + \alpha_2 + ... + \alpha_1 ) u_1 + (\alpha_2 + ... + \alpha_n) u_2 + ... + \alpha_n u_n = 0$ para todas las i haciendo una subtitución hacia atrás y el resultado es el siguiente.

1voto

anomaly Puntos 8298

Un conjunto de vectores $S$ es linealmente independiente si el espacio de $\langle{S}\rangle$ genera tiene dimensión $\#S$. Pero $V = \langle{v_1, \dots, v_n}\rangle$ e $V' = \langle{v_1, v_1 + v_2, v_1 + v_2 + v_3, \dots\rangle}$ coinciden: $V'\subset V$, y $$v_i = (v_1 + \cdots + v_i) - (v_1 + \cdots + v_{i-1}).$$

Alternativamente, los vectores $v'_i = v_1 + \cdots + v_i$ ha $v'_i = gv_i$para \begin{align*} g = \begin{pmatrix} 1 & 1 & \cdots & 1 \\ 0 & 1 & \cdots & 1 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & 1 \end{pmatrix} \end{align*} Claramente $g$ es invertible (por ejemplo, $\det g = 1$), por lo $\dim V' = \dim g(V) = \dim V$.

0voto

Pedro Tamaroff Puntos 73748

La matriz que cambia una base al otro conjunto tiene un determinante $1$ , ya que es triangular superior con todos los $1$ s arriba y en la diagonal. Así que obtienes una base, ya que estás aplicando una matriz invertible a una. Por ejemplo, cuando $n=3$ , su matriz tiene el siguiente aspecto:

PS

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X