Supongamos $(\lambda_1,...,\lambda_n)$ es un conjunto de coeficientes tales que
$$
0 = \sum_{i=1}^n \lambda_iv_i \etiqueta{1}
$$
donde $v_i = \sum_{k=1}^i u_k$. Queremos mostrar que, a continuación, uno debe tener $ \lambda_i=0$ para todos los $1\leq i\leq n$.
Podemos reescribir esto como
$$
0 = \sum_{i=1}^n \lambda_i \sum_{k=1}^i u_k= \sum_{k=1}^n \sum_{i=k}^n \lambda_i u_k = \sum_{k=1}^n \left(\sum_{i=k}^n \lambda_i\right) u_k \etiqueta{2}
$$
y así, por la independencia de la $u_k$'s, debemos tener
$$
\sum_{i=k}^n \lambda_i = 0 \qquad \forall 1\leq k\leq n \etiqueta{3}
$$
Mostrar que esto implica $ \lambda_i=0$ para todos los $1\leq i\leq n$ (por ejemplo, por inducción, teniendo en $k$ de $n$ a $1$ en (2)).
Para demostrar lo contrario: se supone que, de nuevo dejando $v_i = \sum_{k=i}^n u_i$que $(v_1,\dots,v_n)$ es linealmente independiente. Deje $\alpha_1,\dots,\alpha_n$ tales que
$$
0 = \sum_{i=1}^n \alpha_i u_i
$$
Tomando nota de que $u_i = v_i - v_{i+1}$ (para $1\leq i<n$, obtenemos
$$
0 = \alpha_n v_n + \sum_{i=1}^{n-1} \alpha_i v_i - \sum_{i=1}^{n-1} \alpha_i v_{i+1}
= \alpha_n v_n + \sum_{i=1}^{n-1} \alpha_i v_i - \sum_{i=2}^{n} \alpha_{i-1} v_{i}
= \alpha_1 v_1 + \sum_{i=2}^{n} \alpha_i - \alpha_{i-1}) v_{i}
$$
Por nuestra suposición de independencia lineal de la $v_i$'s, tenemos
$0 = \alpha_1 = \alpha_i - \alpha_{i-1}$ (para todos los $i$). De nuevo por la inducción, esto implica que $\alpha_i = 0$ para todos los $i$. Que muestra que $(u_1,\dots,u_n)$ es linealmente independiente.