43 votos

matriz simétrica real tiene valores propios reales - prueba elemental

Cada matriz simétrica real tiene al menos un valor propio real. ¿Alguien sabe cómo probar esta primaria, es decir, sin la noción de números complejos?

56voto

Chris Puntos 165

Si "elemental" significa no usar números complejos, considere esto.

  1. Primero minimizar el cociente de Rayleigh $R(x)=(x^TAx)/(x^Tx).$ El mínimo que existe y es real. Este es su primer autovalor.

  2. A continuación, repita la prueba usual de la inducción en la dimensión del espacio.

  3. Alternativamente, usted puede considerar el minimax o maximin problema con el mismo cociente de Rayleigh, (encontrar el mínimo de una restricción sobre un subespacio, entonces máximo en todos los subespacios) y se le dará todos los autovalores.

Pero, por supuesto, cualquier prueba requiere algo de topología. El estándar de la prueba requiere el teorema Fundamental del Álgebra, esta prueba requiere la existencia de un mínimo.

55voto

user30364 Puntos 364

Cómo acerca de Jacobi's de la prueba?

Ver, por ejemplo, Folkmar Bornemann, `Rincón del Maestro - kurze Beweise mit langer Wirkung," DMV-Mitteilungen 3-2002, Seite 55 (en alemán, lo siento). Lo siento, no tengo la referencia original.

La idea es simple, definir $\Sigma(A)=\sum_{i=1}^n\sum_{j=i+1}^n a_{ij}^2$ para $A=(a_{ij})$ simétrica real de la matriz. Minimice la función de $O(n)\ni J \mapsto \Sigma(J^TAJ)$ sobre el grupo ortogonal $O(n)$. La función es continua y acotada por debajo de cero, y $O(n)$ es compacto, por lo que el mínimo se alcanza. Pero puede no ser estrictamente positivo, porque si hay un $a_{ij}\not=0$, $i\not=j$, entonces usted puede hacer cero por una rotación que actúa sólo en el $i$-th y $j$-ésima fila y la columna, por lo que se disminuye el $\Sigma$ (esto es un poco simple cálculo con $2\times 2$ matrices). Por lo tanto, el mínimo es cero y es alcanzado en una matriz de $J$ para que $J^TAJ$ es diagonal.

Los autovalores de $A$ son ahora (en diagonal) entradas de $J^TAJ$. No hay números complejos se utilizan, pero usted tiene que saber que el existe mínimo. Tenemos la existencia de una base ortonormales que consta de los vectores propios con el real de los autovalores.

29voto

Penz Puntos 567

Permítanme darles una oportunidad. Este solo se utiliza la existencia de un máximo en un conjunto compacto, y la de Cauchy-Schwarz desigualdad.

Deje $T$ ser un selfadjoint operador en un número finito de dimensiones interiores espacio del producto.

Reclamo: $T$ tiene un autovalor $\pm\|T\|$.

Prueba: Vamos a $v$ en la unidad de la esfera de ser tal que $\|Tv\|$ alcanza su valor máximo $M=\|T\|$. Deje $w$ también en el ámbito de la unidad de ser tal que $Mw=Tv$ (que es como decir que el $w=\frac{Tv}{\|Tv\|}$, salvo en el caso trivial $T=0$).

Esto implica que $\langle w,Tv\rangle=M$. De hecho, la única manera de que dos vectores unitarios $v$ e $w$ puede satisfacer esta ecuación es tener $Tv=Mw$. (Ya sabemos que $\|w\|=1$ e $\|Tv\|\leq M$, la de Cauchy-Schwarz desigualdad nos dice que $|\langle w,Tv\rangle|\leq M$, y la igualdad caso sólo es alcanzable cuando $Tv$ es un escalar varios de $w$, con el escalares $\lambda$ determinado por el cálculo $M=\langle w,Tv\rangle=\langle w,\lambda w\rangle=\lambda\langle w,w\rangle=\lambda$.)

Pero por selfadjointness de $T$, también sabemos que $\langle v,Tw\rangle=M$, y esto implica, por el mismo Cauchy-Schwartz-igualdad de razonamiento, que $Tw=Mv$.

Ahora, uno de los dos vectores $v\pm w$ es distinto de cero, y podemos calcular

$T(v\pm w)=Tv\pm Tw=Mw\pm Mv=M(w\pm v)=\pm M(v\pm w)$.

Esto concluye la prueba de que $\pm\|T\|$ es valor propio con vector propio $v\pm w$. La realidad de los otros autovalores puede probarse por inducción, la restricción de a $(v\pm w)^\bot$ como en la habitual prueba del teorema espectral.

Observación: La prueba anterior funciona con reales o complejos espacios, y también para el compacto de operadores en espacios de Hilbert.

Comentario: me gustaría saber si esta prueba puede ser encontrado en la literatura. He obtenido la vez que intenta simplificar una prueba del hecho de que si $T$ es un almacén de selfadjoint operador, a continuación, $\|T\|=\sup_{\|v\|\leq 1} \langle Tv,v\rangle$ (como se encuentra, por ejemplo, en la p.32 de Conway, de J. B., "Una Introducción al Análisis Funcional"). En el caso de los no-compacto operadores, uno sólo puede demostrar que $T$ tiene un aproximado autovalor uno de los números de $\pm\|T\|$. El argumento es similar a la anterior, pero el conocimiento de la igualdad caso de Cauchy-Schwarz no es suficiente. Uno tiene que saber que cerca de la igualdad implica cerca de dependencia. Más precisamente, vamos a $v$ ser un fijo de la unidad de vectores, $M\geq 0$ e $\varepsilon\in[0,M]$. Si $z$ es un vector con $\|z\|\leq M$ tal que $|\langle v,z\rangle|\geq \sqrt{M^2-\epsilon^2}$, entonces se puede demostrar que $z$ está dentro de la distancia $\varepsilon$ de %de$\langle v,z\rangle v$.

Ejercicio: Siga la prueba (la de encontrar los posibles vectores $v$ e $w$) para los casos en que $T:\mathbb R^2\to\mathbb R^2$ es dada por cualquiera de las matrices $\begin{pmatrix}2&0\\0&1\end{pmatrix}$, $\begin{pmatrix}-2&0\\0&1\end{pmatrix}$, $\begin{pmatrix}2&0\\0&-2\end{pmatrix}$. Esto puede hacer claro cómo la prueba se hizo. Observe que $v$ e $w$ ya son vectores propios en algunos (la mayoría) de los casos.

20voto

mreggen Puntos 2940

Esto es sólo los detalles de la primera etapa de Alexander Eremenko la respuesta (por lo upvote su respuesta si te gusta la mina), que creo que es por lejos el más elemental. Sólo se necesitan dos hechos: Una función continua en un conjunto compacto en $R^n$ alcanza su máximo (o mínimo), y la derivada de una función suave se desvanece en un máximo local. Y no hay necesidad de multiplicadores de Lagrange en todo.

Deje $C$ ser cualquier anillo cerrado centrado en $0$. La función $$ R(x) = \frac{x\cdot Ax}{x\cdot x}, $$ es continua en $R^n\backslash\{0\}$ y, por tanto, alcanza un máximo en $C$. Desde $R$ es homogénea de grado $0$, cualquier punto máximo $x \in C$ es un punto máximo en todos los de $R^n\backslash\{0\}$. Por lo tanto, para cualquier $v \in R^n$, $t = 0$ es un máximo local de la función $$ f(t) = R(x + tv). $$ La diferenciación de este, obtenemos $$ 0 = f'(0) = \frac{2}{x\cdot x}[Ax - R(x) x]\cdot v $$ Esto es válido para cualquier $v$ y, por tanto, $x$ es un autovector de $A$ con autovalor $R(x)$.

14voto

Brady Puntos 273

Otra primaria de la prueba, basado en la estructura de orden de matrices simétricas. Permítanme en primer lugar recordar las definiciones básicas y los hechos para evitar malentendidos: definimos $A\ge B$ fib $(A-B)x\cdot x\ge0$ para todos los $x\in\mathbb{R}^n$). También, un lexema:

Una matriz simétrica $A$, lo cual es positivo y a es invertible, también es definida positiva (es decir, $A\ge\epsilon I$ para algunos $\epsilon > 0 \,$).

Una rápida prueba pasa a través de la raíz cuadrada de $A$: $(Ax\cdot x)=\|A^{1/2} x\|^2 \ge \|A^{-1/2}\|^{-2} \| x\|^2$; uno tiene que construir $A^{1/2}$ antes, sin diagonalización, por supuesto.

Podemos reformular el lema diciendo equivalentemente: si $A$ es positivo pero, para cualquier $\epsilon >0$, la matriz $A-\epsilon I$ es, $A$ no es invertible.

Como consecuencia, $\alpha_*:=\inf_{|x|=1}(Ax \cdot x)$ es un autovalor de $A$, debido a $A-\alpha_*I$ es positiva y $(A-\alpha_*I)-\epsilon I$ no es (e $\alpha ^ *:=\sup _ {|x|=1}(Ax \cdot x)$ demasiado, por razones análogas).

La completa diagonalización a continuación, se realiza de manera inductiva, como en otras pruebas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X