4 votos

Ayuda para entender la prueba Gram-Schmidt

Esto es de Axler del Álgebra Lineal se Hace bien 6.20 prueba

No entiendo cómo no Axler llegar a la ecuación 6.23. A mí me parece que simplemente se añade un vector $v_j$ tal que $v_j$ es ortogonal a cada vector en $\mathrm{span}(e_1,\:...\:e_{j-1})$ y se convierte en un nuevo linealmente independientes que abarcan lista de ($e_1,\:...\:e_{j-1},v_j$)

por lo tanto, $v_j=v_j-0*e_1 -.....-0*e_{j-1}$, debido a $v_{j}$ es ortogonal a $e_{i}$,$\langle v_{j},e_{i} \rangle = 0$.

Por lo tanto, tenemos $v_{j}=v_{j-1} - \langle v_{j},e_{1} \rangle e_{1} -...- \langle v_{j},e_{j-1} \rangle e_{j-1}$

luego normalizar $v_{j}$$e_{j}$, con lo que obtenemos la ecuación 6.23

Sin embargo, ¿cómo sabemos que siempre podemos añadir un vector ortogonal a una lista que abarca? Axler no es prueba de que siempre podemos añadir uno más vectores linealmente independientes para la extensión de la lista y ortogonal a cada vector en el que abarca la lista).

3voto

$v_j$ $j$ésimo elemento de la original linealmente independientes set $\{v_1,\dots,v_m\}$. En cuanto a tu comentario, no sabes que $v_j$ es ortogonal a cada uno de los $e_1,\dots,e_{j-1}$.

Él está trabajando de forma inductiva. Él ha asumido que para $j-1$ podemos encontrar $\{e_1,\dots,e_{j-1}\}$ tal que abarcan$\{e_1,\dots,e_{j-1}\}=$span$\{v_1,\dots,v_{j-1}\}$. A continuación, se considera el conjunto $\{v_1,\dots,v_j\}$. Por inducción se puede encontrar un orthonoromal set $\{e_1,\dots,e_{j-1}\}$ de manera tal que, como en el anterior, span$\{e_1,\dots,e_{j-1}\}=$span$\{v_1,\dots,v_{j-1}\}$. Para completar la inducción que le tira en uno de los más ortonormales de vectores en $\{e_1,\dots,e_{j-1}\}$ tomando el $j$ésimo elemento de a $\{v_1,\dots,v_m\}$ y formando $e_j$, tal como se describe en su caja 6.23.

El resto de la prueba es demostrar por qué este vector es orthorgonal a cada uno de los anteriores $e_i$, y que el conjunto es linealmente independiente.

Si usted tiene un ortonormales linealmente independientes set$\{e_1,\dots,e_j\}$$j<\dim V$, entonces siempre se puede tirar uno más ortonormales de vectores. Para ver esto, basta con extender $\{e_1,\dots,e_j\}$ a de base para $V$ luego de preformas Gramo Scmidt en este conjunto. Tenga en cuenta que si $j=\dim V$, entonces usted puede lanzar en una ortonormales de vectores porque entonces este nuevo conjunto es linealmente independiente con un tamaño mayor que $\dim V$.

2voto

Jan D. Puntos 316

$\newcommand{\norm}[1]{\|{#1}\|}\newcommand{\ip}[1]{\langle{#1}\rangle}$La clave es la comprensión de la Ecuación 6.23 es la siguiente observación:

Deje $S$ ser un subespacio de un finito-dimensional espacio vectorial $V$, y deje $\{\xi_1,\dotsc,\xi_k\}$ ser un ortonormales base para $S$. Entonces para cualquier $v \in V$, $$P_S v = \ip{v,\xi_1}\xi_1 + \cdots + \ip{v,\xi_k}\xi_k$$ es la proyección ortogonal de a $v$ a $S$, mientras que $$P_{S^\perp} v = v - P_S v = v - \ip{v,\xi_1}\xi_1 - \cdots - \ip{v,\xi_k}\xi_k$$ es la proyección ortogonal de a $v$ a $S^\perp$.

Ahora, supongamos que, por inducción, que ha construido una base ortonormales $\{e_1,\dotsc,e_{j-1}\}$$S_{j-1} := \operatorname{Span}\{v_1,\dotsc,v_{j-1}\}$. Entonces, en particular, $$ v_j = P_{S_{j-1}} v + P_{S_{j-1}^\asesino} $$ para $$ P_{S_{j-1}} v_j = \ip{v_j,e_1}e_1 + \cdots + \ip{v_j,e_{j-1}}e_{j-1} \S_{j-1} = \operatorname{Span}\{v_1,\dotsc,v_{j-1}\}\\ P_{S_{j-1}^\asesino} v_j = v_j - \ip{v_j,e_1}e_1 - \cdots - \ip{v_j,e_{j-1}}e_{j-1} \S_{j-1}^\asesino = \operatorname{Span}\{v_1,\dotsc,v_{j-1}\}^\asesino, $$ de modo que $\{e_1,\dotsc,e_{j-1},P_{S_{j-1}^\perp} v_j\}$ define un ortogonales de base para $$ S_j := \operatorname{Span}\{v_1,\dotsc,v_j\} = \operatorname{Span}\{e_1,\dotsc,e_{j-1},v_j\} = \operatorname{Span}\{e_1,\dotsc,e_{j-1},P_{S_{j-1}^\asesino} v_j\}; $$ para obtener una ortonormales base para $S_j$, simplemente normalizar $P_{S_{j-1}^\perp} v_j$ para obtener $$ e_j := \frac{1}{\norma{P_{S_{j-1}^\asesino} v_j}} P_{S_{j-1}^\asesino} v_j = \frac{v_j - \ip{v_j,e_1}e_1 - \cdots - \ip{v_j,e_{j-1}}e_{j-1}}{\norma{v_j - \ip{v_j,e_1}e_1 - \cdots - \ip{v_j,e_{j-1}}e_{j-1}}}, $$ que es precisamente la Ecuación 6.23. Si usted está preocupado acerca de la independencia lineal de $\{e_1,\dotsc,e_j\}$, el punto es que es, por construcción, un sistema generador con $j$ elementos de la $j$-dimensiones subespacio $S_j$, lo que garantiza $j$-dimensiones porque, precisamente, $\{v_1,\dotsc,v_m\}$ fue asumido para ser linealmente independientes.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X