5 votos

Demostración informativa de que cualquier matriz simétrica de valor real sólo tiene valores propios reales

Estoy buscando una prueba informativa de que cualquier matriz simétrica de valor real sólo tiene valores propios reales. Cuando digo informativa, me refiero a que la prueba vaya acompañada de una explicación, en lugar de un simple copiar y pegar, que no es informativo.

Me encontré con este pregunta, pero (1) la respuesta mejor valorada de Lepidopterist no es, según él mismo, una prueba del resultado, sino más bien una explicación de por qué el método mostrado es no una prueba del resultado deseado, y (2) ninguna de las pruebas publicadas ofrece explicaciones y son meros trabajos de copiar y pegar. Además, ninguna de las respuestas de la pregunta ha sido aceptada por el autor, por lo que parece que también podría haber encontrado las respuestas insatisfactorias.

Estoy buscando una prueba y una explicación que la acompañe, para poder aprender correctamente el razonamiento que hay detrás de cómo cualquier matriz simétrica de valor real sólo tiene valores propios reales.

Agradecería mucho que alguien se tomara la molestia de aclararlo.

6voto

Lorin Hochstein Puntos 11816

Sea $A$ sea una matriz cuadrada compleja. En general, para cualquier vector $v$ y $w$ sabemos que $$\langle Av,w\rangle = \langle v,A^*w\rangle,$$ donde $A^*$ es la transposición conjugada de $A$ .

Supongamos ahora que $A$ es real y simétrica, y $v$ es un vector propio de $A$ con valor propio $\lambda$ . Entonces tenemos: $$\lambda\langle v,v\rangle = \langle \lambda v,v\rangle = \langle Av,v\rangle = \langle v,A^*v\rangle = \langle v,Av\rangle = \langle v,\lambda v\rangle = \overline{\lambda}\langle v,v\rangle.$$ Por lo tanto, $\lambda\langle v,v\rangle = \overline{\lambda}\langle v,v\rangle$ . Desde $v$ es un vector propio de $A$ , $v\neq \mathbf{0}$ Por lo tanto $\langle v,v\rangle\neq 0$ . Así, tenemos que $\lambda = \overline{\lambda}$ demostrando que $\lambda$ debe ser un número real.

En general, ésta es la razón por la que los operadores hermitianos (operadores que son iguales a sus adyacentes) sólo tienen valores propios reales.

0voto

The Pointer Puntos 95

Encontré la prueba en http://pi.math.cornell.edu/~jerison/math2940/real-eigenvalues.pdf ser informativo y educativo.

El teorema espectral establece que si $A$ es un $n \times n$ matriz simétrica con entradas reales, entonces tiene $n$ vectores propios ortogonales. El primer paso de la prueba consiste en demostrar que todas las raíces del polinomio característico de $A$ (es decir, los valores propios de $A$ ) son números reales.

Recordemos que si $z = a + bi$ es un número complejo, su conjugado complejo se define por $\bar{z} = a − bi$ . Tenemos $z \bar{z} = (a + bi)(a − bi) = a^2 + b^2$ Así que $z\bar{z}$ es siempre un número real no negativo (e igual a $0$ sólo cuando $z = 0$ ). También es cierto que si $w$ , $z$ son números complejos, entonces $\overline{wz} = \bar{w}\bar{z}$ .

Sea $\mathbf{v}$ sea un vector cuyas entradas pueden ser complejas. Ya no es cierto que $\mathbf{v} \cdot \mathbf{v} \ge 0$ con igualdad sólo cuando $\mathbf{v} = \mathbf{0}$ . Por ejemplo,

$$\begin{bmatrix} 1 \\ i \end{bmatrix} \cdot \begin{bmatrix} 1 \\ i \end{bmatrix} = 1 + i^2 = 0$$

Sin embargo, si $\bar{\mathbf{v}}$ es el conjugado complejo de $\mathbf{v}$ es cierto que $\mathbf{v} \cdot \mathbf{v} \ge 0$ con igualdad sólo cuando $\mathbf{v} = 0$ . Efectivamente,

$$\begin{bmatrix} a_1 - b_1 i \\ a_2 - b_2 i \\ \dots \\ a_n - b_n i \end{bmatrix} \cdot \begin{bmatrix} a_1 + b_1 i \\ a_2 + b_2 i \\ \dots \\ a_n + b_n i \end{bmatrix} = (a_1^2 + b_1^2) + (a_2^2 + b_2^2) + \dots + (a_n^2 + b_n^2)$$

que siempre es no negativo e igual a cero sólo cuando todas las entradas $a_i$ y $b_i$ son cero.

Teniendo esto en cuenta, supongamos que $\lambda$ es un valor propio (posiblemente complejo) de la matriz simétrica real $A$ . Por tanto, existe un vector distinto de cero $\mathbf{v}$ también con entradas complejas, tal que $A\mathbf{v} = \lambda \mathbf{v}$ . Tomando el conjugado complejo de ambos lados, y observando que $A = A$ desde $A$ tiene entradas reales, obtenemos $\overline{A\mathbf{v}} = \overline{\lambda \mathbf{v}} \Rightarrow A \overline{\mathbf{v}} = \overline{\lambda} \overline{\mathbf{v}}$ . Entonces, usando ese $A^T = A$ ,

$$\overline{\mathbf{v}}^T A \mathbf{v} = \overline{\mathbf{v}}^T(A \mathbf{v}) = \overline{\mathbf{v}}^T(\lambda \mathbf{v}) = \lambda(\overline{\mathbf{v}} \cdot \mathbf{v}),$$

$$\overline{\mathbf{v}}^T A \mathbf{v} = (A \overline{\mathbf{v}})^T \mathbf{v} = (\overline{\lambda} \overline{\mathbf{v}})^T \mathbf{v} = \overline{\lambda}(\overline{\mathbf{v}} \cdot \mathbf{v}).$$

Desde $\mathbf{v} \not= \mathbf{0}$ tenemos $\overline{\mathbf{v}} \cdot \mathbf{v} \not= 0$ . Así $\lambda = \overline{\lambda}$ lo que significa $\lambda \in \mathbb{R}$ .

Para más información sobre cómo el autor llega de $\overline{\mathbf{v}}^T(\lambda \mathbf{v})$ a $\lambda(\overline{\mathbf{v}} \cdot \mathbf{v})$ y de $(\overline{\lambda} \overline{\mathbf{v}})^T \mathbf{v}$ a $\overline{\lambda}(\overline{\mathbf{v}} \cdot \mathbf{v})$ Ver este pregunta.

0voto

Ernie060 Puntos 555

$\newcommand{\metric}[2]{\langle #1,#2 \rangle}$$ \newcommand{\R}{\mathbb{R}}$ He aquí otra prueba. El argumento es un ajuste de la prueba de la descomposición del valor singular de una matriz. No pretendo que sea la prueba más corta de la historia, pero creo que es bastante informativa.

El punto de vista geométrico. Una simétrica $n\times n$ -matriz $A$ da lugar a una forma bilineal en $\mathbb{R}^n$ : $$ \metric{v}{w} = w^T A v. $$ Asociada a esta forma está la forma cuadrática $Q(v)=\metric{v}{v}=v^T A v$ .

Consideremos esta forma bilineal como un producto interior generalizado sobre $\R^n$ . En este sentido, piense en $\metric{v}{v}$ como la "longitud al cuadrado" de un vector $v\in\R^n$ . Si todos los valores propios de $A$ son positivos, entonces $\metric{v}{v}$ es siempre un número positivo; en este caso $\metric{v}{w}$ es un producto interno. Si $A$ tiene valores propios negativos de cero, este punto de vista es menos intuitivo. No obstante, estas formas bilineales se dan de forma natural (por ejemplo, el espaciotiempo de Minkowski en $\R^4$ ).

Surge una pregunta natural. ¿Cómo se comportan las "distancias" en $\R^n$ equipado con esta forma bilineal? Para ello, investigamos el mapa $$ f: S^{n-1}\subset\R^n\to \R: v \mapsto v^T A v. $$ Vamos a proceder como sigue. Primero determinamos el vector $v_1 \in S^{n-1}$ tal que $f(v_1)$ es máxima. Entonces vamos a encontrar un vector $v_2 \in S^{n-1} \cap \mathrm{span}\{v_1\}^\perp$ tal que $f(v_2)$ es maximal (en el complemento ortogonal de $v_1$ ). Repitiendo este argumento obtenemos una base ortonormal $\{v_1,\ldots, v_n\}$ con valores propios $f(v_1),\ldots, f(v_n)$ . Como la función tiene valor real, los valores propios son reales.

Teorema. La matriz $A$ admite una base ortonormal $\{v_1,\ldots, v_n\}$ de vectores propios con valores propios reales.

Prueba. Paso básico. Desde $S^{n-1}$ es compacto, existe un $v_1\in S^{n-1}$ tal que $f(v_1)$ es máxima. Ahora tomemos a $w \in S^{n-1}\cap \mathrm{span}\{v_1\}^\perp$ . Consideremos la curva $$ \alpha\colon (-\epsilon,\epsilon)\to\R^n : t \mapsto \cos t\, v_1 + \sin t\, w. $$ Tenga en cuenta que $\alpha(0)=v_1$ y $\alpha'(0)=w$ . Consideremos ahora la composición $g(t)=f(\alpha(t))$ . Su derivada es $$ \begin{align*} g'(t) &= (-\sin t\, v_1 + \cos t \, w)^T A (\cos t\, v_1 + \sin t\,w) \\ & \qquad + (\cos t\, v_1 + \sin t\,w)^T A (-\sin t\, v_1 + \cos t \, w) \\ &= 2 (-\sin t\, v_1 + \cos t \, w)^T A (\cos t\, v_1 + \sin t\,w) . \end{align*} $$ Aquí utilizamos la simetría de $A$ . Tenga en cuenta que $g$ es máxima en $t=0$ desde $\alpha(0)=v_1$ . Por lo tanto $g'(0)=2 w^T A v_1$ debe ser cero. Dado que $w$ es un vector unitario arbitrario perpendicular a $v_1$ , $Av_1$ debe ser múltiplo de $v_1$ . Concluimos que $v_1$ es un valor propio con valor propio real $f(v_1)$ .

Paso de inducción. Supongamos que ya hemos encontrado un conjunto ortonormal $\{v_1,\ldots, v_k\}$ de valores propios con valores propios reales. Entonces simplemente hacemos el mismo argumento que arriba, pero lo aplicamos a la función $f$ restringida a la subesfera $S^{n-1}\cap \mathrm{span}\{v_1,\ldots,v_k\}^\perp$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X