En todas partes puedo leer que una matriz y su adjunto tienen prácticamente los mismos valores propios (la única diferencia entre ellos es la conjugación compleja). Ahora me preguntaba si esa relación existe también entre los vectores propios de ambas matrices. ¿Tienen algo en común?
Respuestas
¿Demasiados anuncios?Existe una relación de ortogonalidad muy importante entre los vectores propios de una matriz y su adjunto que es muy útil en muchas aplicaciones (reducción de ecuaciones diferenciales, por ejemplo). Sea $A$ sea una matriz y $A^{\ast}$ sea su adjunto.
Si $A x = \lambda x$ y $A^{\ast} y = \mu y$ con $\lambda \neq \overline{\mu}$ (donde $\overline{\cdot}$ es un complejo conjugado) entonces $x$ y $y$ son ortogonales, es decir $(x, y)= 0$ .
La prueba es muy fácil. $$ \lambda (x, y) = (A x, y) = (x, A^{\ast} y) = (x, \mu y) = \overline{\mu} (x, y), $$ lo que implica que $(\lambda - \overline{\mu})(x, y) = 0$ . Esto implica la ortogonalidad de $x$ y $y$ .
Usted está preguntando esencialmente sobre la relación entre vectores propios derecho e izquierdo de la misma matriz. Básicamente, aunque se producen para los mismos valores propios, no hay mucha relación entre ellos. Mientras que los vectores propios derechos viven en el espacio vectorial sobre el que actúa la matriz, los vectores propios izquierdos viven en el espacio dual (son formas lineales sobre el espacio). Incluso si se asume por simplicidad que la matriz es diagonalizable, entonces los vectores propios izquierdos para $~\lambda$ son aquellas formas lineales que desaparecen en todas las otros eigenspaces que el de $~\lambda$ ; conociendo claramente sólo el eigespacio para $~\lambda$ no es suficiente para saber cuál es ese espacio-igenio izquierdo. Lo único positivo que se me ocurre es que para cada vector propio izquierdo hay algún vector propio derecho para el mismo valor propio en el que no desaparecen (obviamente ese vector no es único).
En cuanto a los vectores propios izquierdo y derecho, suponiendo que la matriz es diagonalizable: Supongamos que tenemos un valor propio lambda de A (NXN) y todos sus vectores propios. Encuentre el subespacio de (N-1) dimensiones abarcado por todos los vectores propios excepto el asociado a lambda. Ahora considere el vector perpendicular a este subespacio. Será el vector propio de A-transpose asociado a lambda. (Esto demuestra que se puede hacer. No es que sea una forma eficiente de hacerlo computacionalmente).