6 votos

Independencia lineal en extrañas condiciones

Este es un problema de un libro de texto de álgebra lineal. Dado un número finito de dimensiones interiores espacio del producto $V$ con base ortonormales $e_1, \ldots, e_n$, demuestran que si una lista de vectores $v_1, \ldots, v_n$ satisface $\|e_j - v_j\| < \frac{1}{\sqrt{n}}$ todos los $j$$\{1, \ldots, n\}$, $v_j$'s forma una base de $V$.

Yo no tengo ni idea. Es intuitivo cuando pienso en $\mathbb{R}^2$, buscando en pequeñas esferas en las puntas de las $e_j$'s.

He pensado en buscar en los prefijos, como debe ser cierto que $\|e_j - v_j\| < \frac{1}{\sqrt{i}}$ todos los $j$$\{1, \ldots, n\}$. Así que ahora si $v_i \in \operatorname{span}(v_1, \ldots, v_i)$, entonces se debe violar la desigualdad. Sólo se veía feo. Esto es incluso una buena dirección? Edit: veo que es ridículo ahora...

Es esto algo duro (Axler del libro, 3ª edición, y los problemas no están marcados por la dificultad, así que no quiero perder el tiempo), o solo estoy haciendo el tonto?

3voto

user32262 Puntos 2147

Definir $u_i := v_i - e_i$ % que $v_i = e_i + u_i$y $||u_i||^2 < \frac{1}{n}$. Es suficiente para mostrar que $(e_1 + u_1, \ldots, e_n + u_n)$ son linealmente independientes. Que $a_i \in \mathbb{C}$ ser escalares tales que $\sum_{i=1}^n a_i (e_i + u_i) = 0$. Entonces %#% $ de #% tomando normas y utilizando el hecho de que $$ \sum_{i=1}^n a_i e_i = -\sum_{i=1}^n a_i u_i. $ es una base orthonormal, tenemos $(e_i)$ $ usando la desigualdad del triángulo y la desigualdad de Cauchy-Schwartz (en $$ \sum_{i=1}^n |a_i|^2 = \left| \left| \sum_{i=1}^n a_i e_i \right| \right|^2 = \left| \left| \sum_{i=1}^n a_i u_i \right| \right|^2. $), tenemos $\mathbb{R}^n$ $

Así, obtenemos

$$ \sum_{i=1}^n |a_i|^2 = \left| \left| \sum_{i=1}^n a_i u_i \right| \right|^2 \leq \left( \sum_{i=1}^n |a_i| ||u_i|| \right)^2 \leq \left( \sum_{i=1}^n |a_i|^2 \right) \left( \sum_{i=1}^n ||u_i||^2 \right). $$

Desde $$ \left(\sum_{i=1}^n |a_i|^2 \right) \left( 1 - \sum_{i=1}^n ||u_i||^2 \right) \leq 0.$, debemos tener $\sum_{i=1}^n ||u_i||^2 < \sum_{i=1}^n \frac{1}{n} = 1$ mostrando que $\sum_{i=1}^n |a_i|^2 = 0$ % todos $a_i = 0$.

3voto

FrancescoA Puntos 11

Puede ser sólo el uso de la definición de dependencia lineal de vectores. Deje $\alpha=(\alpha_1,\cdots,\alpha_m)$ tal que $\sum_{i=1}^n\alpha_iv_i=0$ entonces $\sum_{i=1}^n|\alpha_i|^2=\|\sum_{i=1}^n\alpha_ie_i-\sum_{i=1}^n\alpha_iv_i\|^2=\|\sum_{i=1}^n\alpha_i(e_i-v_i)\|^2$ $\leq (\sum_{i=1}^n|\alpha_i|\|(e_i-v_i)\|)^2<(\sum_{i=1}^n|\alpha_i|\frac1{\sqrt{n}})^2<\sum_{i=1}^n|\alpha_i|^2$

a continuación, $\alpha=0$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X