4 votos

Problema con la prueba del teorema espectral

Reclamo: Vamos a Un $\in \mathbb{R}^{n \times n }$ ser simétrica. Entonces hay una base ortonormales de $\mathbb{R}^n$ consta de vectores propios de A.


Croquis de la prueba:

Inducción sobre n. El reclamo es claro para n = 1. Deje $\lambda$ ser un autovalor de A, $x$ el vector propio asociado. Deje $\{x, v_2, \cdots, v_n \}$ ser una base para $\mathbb{R}^n$.

De Gram-Schmidt, a continuación, obtenemos un ortonormales base de $\mathbb{R}^n$, $\{b_1, b_2, \cdots, b_n \}$.

Pretendemos que V = span$\{b_2, b_3, \cdots, b_n \}$ es un subespacio invariante bajo A. (Prueba omitida)

A continuación, definimos T: $V \to V$$Tv = Av$.

A continuación, tomamos B $\in \mathbb{R}^{(n-1)\times(n-1)}$ como la representación de la matriz de T con respecto a $\{b_2, \cdots, b_n \}$ y demostrar que B es simétrica.

Por hipótesis de inducción, tenemos una base ortonormales de $\mathbb{R}^{n-1}$ consta de los vectores propios de B. Deje $\{ u_2, u_3, \cdots, u_n\}$ denotar esta base.

Tomamos $w_j = \Sigma_{k=2}^n u_{jk}b_k$ $j = 2, 3 \cdots, n$ donde $u_j = (u_{j2}, u_{j3}, \cdots, u_{jn} ) \in \mathbb{R}^{n-1}$.

A continuación, $\{b_1, w_2, \cdots, w_n\}$ es un ortonormales base para $\mathbb{R}^n$ consta de vectores propios de A.


Las partes estoy teniendo problemas con son:

  • La necesidad de mostrar que V es invariante bajo (yo soy una especie de adivinación que ver con nosotros que es capaz de representar T como hicimos nosotros, pero quisiera una aclaración)
  • (Mi principal problema:) ¿por Qué nuestra selección de $w_j$ satisface nuestro reclamo.

Cualquier ayuda sería muy apreciada, he estado un poco loco, pasando por los detalles. Gracias!

2voto

user32262 Puntos 2147

Creo que este es un muy buen ejemplo en el que un poco más abstracto prueba lineal de los mapas (que se utiliza en cualquier caso) en lugar de matrices simplifica el argumento y muestra más claramente lo que está pasando.

Deje $(W, \left< \cdot, \cdot \right>)$ ser finito dimensionales real del producto interior espacio y deje $T \colon W \rightarrow W$ ser un operador simétrico (por lo $T = T^{*}$). Queremos mostrar que $T$ tiene una base ortonormales de vectores propios por inducción en $\dim W$. Tenemos dos pasos:

  1. En primer lugar, debemos mostrar que cualquier simétrica operador tiene al menos un autovalor. Esto ya es no trivial y requiere de un argumento que pasa a través de los números complejos o, alternativamente, una topológico argumento.
  2. A continuación realizamos la inducción. El caso de $\dim W = 1$ es clara. Donde $\dim W > 1$, tomamos alguna unidad de longitud autovector $v_1 \in V$ y considerar la posibilidad de $V = \{ v_1 \}^{\perp}$. Nos muestran que $V$ $T$- invariante (es decir, $T(V) \subseteq V$) lo que implica que se puede restringir $T$$V$, y obtener un operador lineal en el mapa de un espacio vectorial a sí mismo y no a otro espacio vectorial). El operador $T|_{V} \colon (V, \left< \cdot, \cdot \right>|_{V \times V}) \rightarrow (V, \left< \cdot, \cdot \right>|_{V \times V})$ también es auto-adjunto y $\dim V = \dim W - 1$, por lo que por hipótesis de inducción no es una base ortonormales $v_2, \dots, v_n$ de los vectores propios de a $T|_V$. A continuación, la base $(v_1, \ldots, v_n)$ es entonces una base ortonormales de vectores propios de a $T$ y usted no necesita tomar cualquier combinación lineal de las $v_i$.

Con respecto a tus preguntas,

  1. Usted necesita demostrar que $V$ $T$- invariante (o $A$-invariante en su caso) con el fin de ser capaz de restringir $T$$V$, y obtener un operador. Si no mostrar que $V$ $A$- invariante, todavía se puede definir $T$ $T \colon V \rightarrow \mathbb{R}^n$ pero, a continuación, $T$ no ser representado por un cuadrado de $(n-1)\times(n-1)$ matrix pero por una $n \times (n-1)$ matriz, y usted no será capaz de utilizar la hipótesis de inducción.
  2. Denotar por $\mathcal{B} = (b_1, \ldots, b_n)$ y $\mathcal{C} = (e_1, \ldots, e_n)$ el estándar de base. Considere la posibilidad de que el operador $T \colon \mathbb{R}^n \rightarrow \mathbb{R}^n$ definido por $Tv = Av$. La matriz $A$ representa el operador $T$ con respecto al $\mathcal{C}$, mientras que la matriz de $B$ representa la acción del operador $T|_V$ con respecto a las diferentes bases $\hat{\mathcal{B}} = (b_2, \dots, b_n)$.

    Un autovector $u_i$ $B$ (un elemento de $\mathbb{R}^{n-1}$) no puede ser un autovector de a $A$ (un elemento de $\mathbb{R}^n$), pero representa un autovector de a $A$ en el sentido de que $u_i$ se compone de los coeficientes de un autovector $w_i$ $A$ con respecto a la base $\hat{B}$ (los coeficientes de $w_i$ no tienen un $b_1$ componente desde $w_i \in \{ b_1 \}^{\perp}$).


Además: Vamos a $\mathbf{u} = (u_2, \ldots, u_n) \in \mathbb{R}^{n-1}$ ser un autovector de a $B$ $B\mathbf{u} = \lambda \mathbf{u}$ y establezca $\mathbf{w} = \sum_{i=2}^n u_i \mathbf{b}_i$. Queremos mostrar que $A\mathbf{w} = \lambda \mathbf{w}$. Desde $(\mathbf{b}_1, \ldots, \mathbf{b}_n)$ es una base ortonormales de $\mathbb{R}^n$, es suficiente para demostrar que

$$ \left< A \mathbf{w}, \mathbf{b}_j \right> = \left< \lambda \mathbf{w}, \mathbf{b}_j \right> = \begin{cases} \lambda_j u_j & 2 \leq j \leq n \\ 0 & j = 1 \end{cases}.$$

Desde $V$ $A$- invariante y $\mathbf{w} \in V$ tenemos $\left<A\mathbf{w}, \mathbf{b}_1 \right> = 0$. Para $2 \leq j \leq n$ hemos

$$ \left< A \mathbf{w}, \mathbf{b}_j \right> = \left< \sum_{i=2}^n u_i A\mathbf{b}_i, \mathbf{b}_j \right> = \sum_{i=2}^n \left< A \mathbf{b}_i, \mathbf{b}_j \right> u_i = \sum_{i=2}^n b_{ij} u_i = \sum_{i=2}^n b_{ji} u_i = (B \mathbf{u})_j = (\lambda \mathbf{u})_j = \lambda_j \mathbf{u}_j $$

donde hemos utilizado el hecho de que $b_{ij} = \left< A\mathbf{b}_i, \mathbf{b}_j \right>$ y $B$ es simétrica.

1voto

Noble Mushtak Puntos 701

$V$ tiene que ser un subespacio invariante bajo$A$, de modo que $T$$V$$V$. De lo contrario, si $V$ no era invariable, $T$ iría de $V$ $\Bbb{R}^n$y entonces no tendría una representación de la matriz en $\Bbb{R}^{(n-1)x(n-1)}$.


He aquí una prueba de que $w_j$ es un autovector de a $A$:

$$Bu_j=\lambda_ju_j$$

Esto es debido a que $u_j$ es un autovector de a $B$. Ahora, vamos a $f$ ser la función de $V$ $\Bbb{R}^{n-1}$que se asigna un vector en $V$ a su representación vectorial en $\Bbb{R}^{n-1}$ con respecto a la base $\{b_2, b_3, ..., b_n\}$. (Mira a la Definición de VR en esta página.) Tomar la $f^{-1}$ de ambos lados.

$$f^{-1}(Bu_j)=f^{-1}(\lambda_ju_j)$$

Deje $w_j=f^{-1}(u_j)$, de modo que $u_j=f(w_j)$. En el lado derecho, podemos traer a $\lambda_j$ porque $f^{-1}$ es una transformación lineal, entonces tenemos $\lambda_jf^{-1}(u_j)=\lambda_jw_j$. En el lado izquierdo, sustituto $u_j=f(w_j)$.

$$f^{-1}(Bf(w_j))=\lambda_jw_j$$

Ahora, mira el Teorema de FTMR en esta página. En nuestro caso, $T$$V$$V$, así como por el teorema de nombres de variable, $B=C=\{b_2, b_3, ..., b_n\}$$p_B=p_C=f$. Por lo tanto, el lado izquierdo es simplemente $T(w_j)$ que es el mismo que $Aw_j$:

$$Aw_j=\lambda_jw_j$$

Hemos probado el $w_j$ es un autovector, pero no hicimos uso de la definición de la misma como su libro. Tenemos que demostrar a estas definiciones son equivalentes. Ahora, volvamos a la Definición de VR desde arriba. De acuerdo a eso y el hecho de que, según la definición de nombres de variable, $f=p_B$ y $B=\{b_2, b_3, ..., b_n\}$, tenemos:

$$w_j=\sum_{k=1}^{n-1} f(w_j)_kb_{k+1}$$

Ahora, lo $f(w_j)$? Es $u_j$, como se dijo más arriba:

$$w_j=\sum_{k=1}^{n-1} u_{jk} b_{k+1}$$

Ahora, redefinir $u_j=(u_{j2}, u_{j3}, ..., u_{jn})$ como lo hizo y ajustar la suma:

$$w_j=\sum_{k=2}^{n} u_{jk}b_k$$

Por lo tanto, las definiciones son de hecho equivalentes.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X