¿Existe una forma rápida de dar una estimación bruta de un vector/valor propio de una matriz? Por "rápido" me refiero a algún método que pueda calcularse sin ordenador o sin papel y lápiz... algo que se pueda hacer mentalmente
Respuestas
¿Demasiados anuncios?Algunos métodos:
Si las sumas de las filas o columnas son todas iguales (digamos que son iguales a $r$ ), entonces $(1,1,\ldots,1)$ es un vector propio asociado a $\lambda = r$ .
Además, el teorema de Geršgorin nos da algunas buenas estimaciones, especialmente si las entradas fuera de la diagonal son pequeñas.
Si sus matrices tienen todas las entradas positivas, entonces el mayor valor propio es positivo (y real) y está limitado por las sumas mínimas y máximas de las columnas y filas.
Algunos ejemplos: $$\begin{pmatrix}1 & 2& 8\\3&7&1\\5&2&4\end{pmatrix}$$ debe tener 11 como valor propio, ya que todas las filas suman lo mismo.
Otro ejemplo de estimación: $$\begin{pmatrix}5 & 2& 8\\3&7&1\\5&2&4\end{pmatrix}$$
tiene el mayor valor propio entre 11 y 13 (ambos inclusive), lo que no es en absoluto obvio.
Este truco de los límites mínimo/máximo utilizando sumas de filas de matrices con entradas positivas lo utilizo con bastante frecuencia en mis investigaciones.
La idea es que, para matrices "pequeñas", obtener estimaciones de los valores propios en la cabeza no es demasiado difícil a veces.
Otra cosa a investigar sería la "Subadditividad de la inercia".
El número de valores propios positivos de una matriz $A$ está limitada por la suma del número de valores propios positivos de las matrices que suman $A$ . Lo mismo puede decirse de los valores propios negativos de $A$ .
Estas son herramientas que me resultan útiles. No pretenden ser un tratado completo sobre la estimación de valores propios.
Para una matriz positiva, existe efectivamente una forma de estimar un vector propio positivo a partir de la matriz, el vector propio asociado al valor propio descrito en la respuesta de Vladhagen.
Para estimar un vector propio de columna positivo de una matriz positiva, utilice el hecho de que el verdadero rayo de los vectores propios de columna positivos está contenido en el casco convexo de los rayos determinados por las columnas. Así, por ejemplo, cualquier columna individual da una estimación. La suma de las columnas da, tal vez, una estimación mejor. Del segundo ejemplo de Vladhagen obtengo la suma de columnas $$\begin{pmatrix}15\\11\\11\end{pmatrix} $$ Ahora bien, uno de los problemas de insistir en que no se haga ningún cálculo es que los vectores propios suelen darse de forma normalizada, por ejemplo, el $L^2$ normalización en la que se divide por el $L^2$ norma que es la longitud del vector. Así que pasaré a hacerlo con este ejemplo, obteniendo $$\begin{pmatrix} .694 \\ .509 \\ .509 \end{pmatrix} $$ Esto se compara con el vector propio calculado con 3 decimales en una calculadora en línea aleatoria que encontré: $$\begin{pmatrix} .698 \\ .483 \\ .528 \end{pmatrix} $$
Si quieres una mejor estimación del vector propio, eleva al cuadrado la matriz antes de hacer el cálculo. O cúbico A medida que se toman las potencias más altas que van al infinito, esto está garantizado para converger, por el Teorema de Perron Frobenius que es un ejemplo de lo que los comentarios anteriores llaman "métodos iterativos".