12 votos

Mostrar independencia lineal de un conjunto de vectores cerca de una base ortonormales

Esta es una pregunta de Álgebra Lineal Hecho a la Derecha.

Supongamos $e_1, \dots, e_n$ es una base ortonormales de $V$ $v_1, \dots, v_n$ son vectores en $V$ tal que $$ \| e_j - v_j \| < \frac{1} {\sqrt{n}} $$ para cada una de las $j$. Demostrar que $v_1, \dots, v_n$ es una base de $V$. Traté de mostrar este si $V$ es un espacio de dos dimensiones por la contradicción. Sin embargo, parece demasiado complicado de utilizar la misma idea para un caso general.

¿Alguien tiene sugerencias para este problema?

12voto

sepehr Puntos 534

Gracias a uno de los estudiantes de mi grupo, he resuelto un par de días atrás. La idea es similar a uno de los comentarios. Pongo mi solución aquí ya es más de álgebra lineal lado sin tocar la matriz.

Podemos demostrar por contradicción. Supongamos lo contrario, es decir, el conjunto $\{v_i\}$ no es una base para $V$. Luego de las salidas de algunos $w \in V$, de tal manera que $\langle w, v_i\rangle = 0$ por cada $i = 1, \dots, n$ donde $w \neq 0$. Tal $w$ puede ser elegido en el aniquilador de $\text{span}\{v_1, \dots, v_n\}$. Ya sabemos $\dim( \text{span}\{v_1, \dots, v_n\}) < n$, $w$ siempre existe. Entonces \begin{align*} \|e_i - v_i\|^2 \|w\|^2 &\ge | \langle e_i-v_i, w\rangle |^2 && (\text{Cauchy-Schwarz}) \\ &= | \langle e_i, w\rangle - \langle v_i, w\rangle |^2 \\ &= | \langle e_i, w\rangle|^2 \end{align*} Ahora suma más de $i = 1, \dots, n$, obtenemos \begin{align*} \sum_{i=1}^n \| e_i - v_i\|^2 \|w\|^2 &\ge \sum_{i=1}^n (\langle e_i, w\rangle)^2 \\ &= \|w\|^2 \end{align*} Esto implica $\sum_{i=1}^n \|e_i - v_i\|^2 \ge 1$. Por otro lado, por supuesto, $\sum_{i=1}^n \|e_i-v_i\|^2 < 1$. Esta es una contradicción.

Por lo tanto, $\{v_1, \dots, v_n\}$ debe ser una base.

6voto

alvaroc Puntos 43

Definir $V$ como una matriz cuyas columnas son $v_i$, tomado de las componentes en la $e$-base, y una matriz de $Δ = I - V$. Entonces los elementos de a $Δ^TΔ$ son de la forma de escalar productos entre todos los pares de $(e_i - v_i)$, que sabemos que

$$(e_i - v_i)\cdot(e_i - v_i) = \|e_i - v_i\|^2 < \frac1n,$$ $$|(e_i - v_i)\cdot(e_j - v_j)| \le \|e_i - v_i\|\cdot\|e_j - v_j\| < \frac1n.$$

Que interesante, así que vamos a usar!

Sabemos que nuestra matriz $Δ^TΔ$ tiene elementos que nunca se $\frac1n$ o más, y quieren demostrar que el $I-Δ$ es regular. Una contradicción sería encontrar un vector normalizado $x$ tal que

$$x = Δ x.$$

Si tal existe, entonces el vector $x^TΔ^TΔx = \|Δx\|^2 = \|x\|^2 = 1$. Ahora, proceda como

$$1 = \sum_{j,k}|x_j(Δ^TΔ)_{jk}x_k| \le \sum_{jk} |x_j| |(Δ^TΔ)_{jk}| |x_k| < \frac1n \sum_{jk} |x_j| |x_k|$$

(aquí he utilizado el triángulo de la desigualdad y el hecho de que sabemos acerca de los elementos de $Δ^TΔ$, observe el estricto $<$ entre los dos últimos términos),

$$\frac1n \sum_{jk} |x_j| |x_k| = n\left(\frac{\sum_j |x_j|}{n}\right)^2 \le n \frac{\sum_j |x_j|^2}{n}$$

(la desigualdad entre la aritmética y la media cuadrática, probablemente de Cauchy-Schwartz si usted reformular de una manera inteligente), así

$$1 < \sum_j |x_j|^2 = 1.$$

Eso es una contradicción, así que esa es nuestra prueba de hecho. También muestra que el límite ajustado: para $\|e_j - v_j\| \le 1/\sqrt n$ puedes encontrar un contraejemplo que satura cada una de las $≤$'s (es decir, $(e_j - v_j)_k = 1/n, \forall j \forall k$).

5voto

alvaroc Puntos 43

Aunque si quieres una prolija prueba...* ;-)

*) pero no se pruebe que en un examen.

  1. Dibujar esta imagen:

enter image description here

  1. Dibujar esta imagen:

enter image description here

  1. Generalizar.

Cómo funciona

El $n$ vectores son linealmente independientes (y por lo tanto forman una base) si no hay hyperplane que los contiene a todos. Si hacemos una $n$-bola sobre la punta de cada uno de los vectores de la base, que marca todos los puntos posibles que sean compatibles con la desviación $\|e_j - v_j\| < r$ (o $≤$, dependiendo de si se incluye la superficie) de los elementos de la base ortonormales, $e_j$. El hyperplane definido por la ecuación

$$\sum_j x_j = 0$$

tiene la propiedad de que para cualquier otro hyperplane la distancia de, al menos, uno de los centros será igual de alto (iguales son aquellos que poner un signo menos delante de algunas de las coordenadas). Por lo tanto es un candidato óptimo para uno que contiene una superposición con todas las esferas. Si no hay solapamiento, cualquier $n$-tupla de vectores apuntando en algún lugar uno en cada una de las esferas serán linealmente independientes.

La distancia de cada uno de los centros de este hyperplane es, entonces, el límite superior en la radio podemos permitir sin romper la garantía de independencia lineal, y puede ser fácilmente calculada a ser $1/\sqrt n$ por cualquier método algebraico.

5voto

user32262 Puntos 2147

Deje $a_i \in \mathbb{F}$ tal que $\sum_{i=1}^n a_i v_i = 0$. Entonces tenemos

$$ 0 = \left \| \sum_{i=1}^n a_i v_i \right \| = \left \| \sum_{i=1}^n a_i (e_i + (v_i - e_i)) \right \| = \left \| \sum_{i=1}^n a_i e_i + \sum_{i=1}^n a_i (v_i - e_i) \right \| \geq \left| \left \| \sum_{i=1}^n a_i e_i \right \| - \left \| \sum_{i=1}^n a_i (v_i - e_i) \right \|\right| $$

lo que implica que

$$ \left( \sum_{i=1}^n |a_i|^2 \right)^{\frac{1}{2}} = \left \| \sum_{i=1}^n a_i e_i \right \| = \left \| \sum_{i=1}^n a_i (v_i - e_i) \right \| \leq \sum_{i=1}^n |a_i| \| v_i - e_i \|. $$

Si $a_i \neq 0$ algunos $1 \leq i \leq n$, entonces el uso de Cauchy-Schwartz tenemos

$$ \sum_{i=1}^n |a_i| \| v_i - e_i \| < \sum_{i=1}^n |a_i| \frac{1}{\sqrt{n}} \leq \left( \sum_{i=1}^n |a_i|^2 \right)^{\frac{1}{2}} \left( \sum_{i=1}^n \frac{1}{n} \right)^{\frac{1}{2}} = \left( \sum_{i=1}^n |a_i|^2 \right)^{\frac{1}{2}}$$

y hemos llegado a una contradicción.

3voto

Jon Warneke Puntos 732

Asociado a cada lista $u = (u_1, \dots, u_n)$ $n$ vectores en $V$ lineal en el mapa \begin{align*} T_u : \mathbb C^n &\to V \\ T_ua &= a_1 u_1 + \cdots + a_n u_n. \end{align*} Por la definición de independencia lineal, $u$ es linealmente independiente iff $T_u a \neq 0$ todos los $a \neq 0$. La idea es, por $a \neq 0$, para acotar la distancia $T_v a$ $0$ (1) delimitación es la distancia de $T_e a$, y (2) la delimitación de la distancia de$T_e a$$0$, para mostrar que $\|T_v a - 0\| > 0$, por lo tanto $T_v a \neq 0$. Desde $a$ fue arbitraria, se deduce que el $v$ es linealmente independiente, y desde $v$ $n = \dim V$ vectores, es una base.

Para (1) utilizamos la condición dada y la desigualdad de triángulo: $$ \|T_e un - T_v un\| = \left\| \sum_{i=1}^n a_i e_i - \sum_{i=1}^n a_i v_i \right\| \leq \sum_{i=1}^n |a_i| \|e_i - v_i\| < \frac{1}{\sqrt{n}} \ | \|_1. $$

Para (2), $$ \|T_e un - 0 \| = \left\| \sum_{i=1}^n a_i e_i \right\| = \sqrt{|a_1|^2 + \cdots + |a_n|^2} = \|\|_2 $$ por el teorema de Pitágoras.

Es una consecuencia de Cauchy-Schwarz que $\frac{1}{\sqrt{n}} \|a\|_1 \leq \|a\|_2$: $$ \|\|_1 = \langle (|a_1|, \dots, |a_n|), (1, \dots, 1) \rangle \leq \|(|a_1|, \dots, |a_n|)\|_2 \|(1, \puntos, 1)\|_2 = \|\|_2 \sqrt{n}. $$ Luego por la inversa de la desigualdad del triángulo $\|u - w\| \geq \big| \|u\| - \|w\| \big|$, se deduce que el $T_v a$ es un resultado positivo a distancia de $0$: $$ 0 \leq \|\|_2 - \frac{1}{\sqrt{n}} \|\|_1 < \|Te_a - 0\| - \|T_e un - T_v un\| \leq \|T_v un - 0\|. $$

De hecho, mi respuesta con Respecto a la independencia lineal en una normativa-espacio lineal dada una condición que resulta esencialmente el mismo resultado con más de una topología/análisis de doblado.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X