En el último mes he estudiado el espectro de teoremas y me formalmente entendido. Pero me gustaría algo de intuición acerca de ellos. Si usted no sabe espectral de teoremas, ¿cómo se te ocurrió la idea de que la simétrica/normal endomorphisms son la única ortogonalmente diagonalizable endomorphisms en el real/complejo caso. ¿Cómo podría incluso venir para arriba con la idea de estudiar el adjunto?
Respuestas
¿Demasiados anuncios?Con respecto a la adjoint, supongamos que se tienen los vectores de espacios de $X$ e $Y$ (en el mismo campo), y una lineal mapa $$ T:X\to Y $$ Escribir $X^*$ e $Y^*$ para el dual de los espacios. A continuación, $T$ natural induce un mapa $$ T^*:Y^* \X^* $$ definido por $$ T^*(\phi):=\phi\circ T $$ Esto tiene sentido, porque si $\phi$ es un funcional lineal en $Y$, a continuación, $\phi\circ T$ es lineal y funcional de $X$. Por otra parte, la función de $T^*$ también es una transformación lineal. Esta $T^*$ se llama el medico adjunto de $T$ (hay un ligero abuso de notación/terminología aquí, voy a elaborar sobre esto en un momento). Este es un ejemplo de lo que se llama functorial comportamiento. Tomando adjoints es un ejemplo de lo que se llama un functor contravariante.
Ahora, supongamos que el $X$ e $Y$ son finito-dimensional del producto interior de los espacios. Entonces usted sabe que $X$ e $X^*$ puede ser canónicamente identificado el uno con el otro. Por un lado, cualquier $x\in X$ da lugar a un funcional lineal $\phi_x\in X^*$ definido por $$ \phi_x(v):=\langle v,x\rangle $$ Escribir $S_X:X\to X^*$ para el mapa que envía a $x$ a $\phi_x$. Es fácil comprobar que $S_X$ es conjugado lineal, es decir $S_X(x+x')=S_X(x)+S_X(x')$ e $S_X(\alpha x)=\bar \alpha S_X(x)$.
Por otro lado, dado cualquier $\phi\in X^*$, uno puede demostrar que no existe (una única) de vectores $x_\phi\in X$ tales que, para cada $v\in X$, $$ \phi(v)=\langle v, x\phi\rangle $$ Esto muestra que la función de $S_X$ anterior es invertible, por lo que es "casi" un isomorfismo, excepto por el hecho de que no es estrictamente lineal, sino que conjugar lineal.
Ahora, la misma cosa se puede hacer con $Y$, y se obtiene un conjugado isomorfismo $S_Y:Y\to Y^*$.
Considere ahora la composición $$ Y\desbordado{S_Y}{\longrightarrow} Y^*\desbordado{T^*}{\longrightarrow} X^* \desbordado{S^{-1} (_X}{\longrightarrow} X $$ Llame a esta composición $\hat T$, es decir, $\hat T(y)=(S^{-1}_X\circ T^*\circ S_Y)(y)$. Se puede comprobar que $\hat T$ es lineal.
Fix $x\in X$ e $y\in Y$. Poner $\phi=(T^*\circ S_Y) y\in X^*$. Ahora, $S_X^ {-1}\phi$ es, por definición, el único vector de $z\in X$ tal que $\langle v,z\rangle =\phi (v)$ por cada $v\in X$. Por lo tanto, $$ \langle x,\hat Ty\rangle =\langle x,S^{-1} (_X\phi\rangle=\phi(x) $$ Ahora, $\phi=T^*(S_Yy)=(S_Yy)\circ T$. Así, $$ \phi(x)=(S_Yy)(Tx) $$ Ahora, $S_Yy\in Y^*$ es el lineal funcional que a la derecha se multiplica un vector en $Y$ por $y$. Esto significa que $$ (S_Yy)(Tx)=\langle Tx,y\rangle $$ Poner todo junto, tenemos que $$ \langle x,\hat Ty\rangle =\langle Tx,y\rangle $$ Así, $\hat T$ tiene la propiedad de que "el adjunto" en cada álgebra lineal texto. En la práctica, utilizamos $T^*$ a referirse a la anterior $\hat T$, y el original de la $T^*$ se queda atrás. Voy a estar siguiendo esta convención a partir de ahora, es decir, todos los $T^*$ en lo que sigue que realmente significa el $\hat T$. Debo mencionar que el tener un producto interior es la clave para todo esto. General de los espacios vectoriales $X$ no necesita ser isomorfo a $ X^*$.
En cuanto a tu pregunta acerca de mirar a la normalidad, cabe recordar que, dado un lineal de operadores de $T:X\to X$, un subespacio $W\subset X$ se dice $T$-invariante si $$ x\W\implica Tx\W $$ Definir el complemento ortogonal $$ W^\asesino:=\{x\in X: \forall w\W\langle x,y\rangle =0\} $$ Tenga en cuenta que, si $W$ es $T$-invariante, entonces $W^\perp$ es $T^*$-invariante. De hecho, la revisión $x\in W^\perp$. Necesitamos ver que $T^*x\in W^\perp$. Deje $w\in W$, luego $$ \langle T^*x,w\rangle=\langle x,Tw\rangle=0 $$ debido a $x\in W^\perp$ e $Tw\in W$ (debido a $W$ es $T$-invariante). Desde $w\in W$ fue arbitraria, $T^*x\in W^\perp$.
Si $T$ es, por ejemplo, la auto-adjunto, entonces es obvio que tenemos que un $W^\perp$ es $T$-invariante. Esto nos lleva a la siguiente pregunta: ¿podemos encontrar una propiedad para un operador $T$ , de manera que se cumple que todos los $T$-subespacio invariante tiene un $T$invariante en el complemento ortogonal? La respuesta a esta pregunta es sí, y la propiedad es la normalidad, ver aquí.
Cómo se relaciona esto con ser diagonalizable? Bien, ya que la matriz de $T^*$ en base a la $B$ es la conjugada transpuesta de la matriz de $T$ en base a la $T$, se sigue que cualquier operador diagonalizable es necesariamente normal.
Supongamos ahora que $T$ es normal. Escoge un autovalor $\lambda$ de $T$. Deje $E$ ser el subespacio propio asociado. Claramente, $E$ es $T$-invariante. Escribir $$ X=E\oplus E^\asesino $$ Por la normalidad, $E^\perp$ también $T$-invarint. Esto significa que podemos considerar el operador restringido $T|_{E^\perp}:E^\perp \to E^\perp$. Este nuevo operador también es normal. Pero $\dim (E^\perp)<\dim X$, y podemos llevar a cabo un argumento inductivo.
Casi todo sobre este tema se deriva en el orden opuesto de lo que te han enseñado. Es por eso que es difícil contestar a su pregunta.
El infinito-dimensional caso fue estudiado para las funciones antes de lo finito-dimensional caso, y antes que la noción de un espacio vectorial.
Ortogonalidad fue notado y se define integral de las condiciones de unos 150 años antes de que un producto interior fue definido, y antes de finito-dimensional de Álgebra Lineal. Estas observaciones llevaron a la noción de un general producto interior en el espacio.
Linealidad salió de la condición física de superposición de soluciones para la Ecuación del Calor y la vibración de la cadena de problema, no la otra manera alrededor.
Auto-adjoint fue definido antes de que existiera un interior-producto, a través de Lagrange adjunto ecuación, que dio, entre otras cosas, una reducción de la orden de la herramienta de Odas, y la noción de "integral ortogonalidad."
Es todo al revés desde el punto de vista de la abstracción. Preguntando cómo usted puede comenzar en el nivel más bajo de abstracción y se mueven naturalmente hacia el más abstracto de la dirección está preguntando cómo motivar hacia atrás en dirección de la Histórica dirección de avance de la que nos trajo a este punto. No se derivan de esa manera, y puede que nunca lo han sido.
Para dar un poco más de una respuesta más breve, en el hermitian caso de observar que, si tanto $x$ e $y$ ambos son vectores propios de $A$, correspondientes a los autovalores $\lambda$ e $\mu$, entonces:
$$\begin{aligned} &\langle Ax, y \rangle = \langle \lambda x, y \rangle = \lambda \langle x, y \rangle \\ &\quad= \\ &\langle x, A^*y \rangle = \langle x, A y \rangle =\langle x, \mu y \rangle = \overline\mu \langle x, y \rangle \end{aligned}$$
Por lo tanto, $(\lambda -\overline\mu) \langle x, y \rangle =0$ suponga bien $\lambda=\overline\mu$ o $x\perp y$. La elección de $x=y$ nos encontramos con que $\lambda=\overline\lambda$, por lo que todos los autovalores debe ser real. En consecuencia, los subespacios propios correspondientes a distintos valores propios son ortogonales uno al otro.
A partir de esta observación solo, muchas de las consecuencias de seguir de forma bastante natural. Uno puede fácilmente demostrar que en este caso una completa base ortogonal existe (ver, por ejemplo, esta súper o probar por ti mismo); del mismo modo, si un ortonormales eigenbasis correspondiente a la real de los autovalores existe uno puede demostrar fácilmente que $A$ debe ser hermitian.
El caso normal es un poco más complicado, pero se puede jugar a un juego similar (puede ampliar más tarde).