¿Cuál es la importancia de los valores propios/vectores propios?
+1: Esta es la explicación más clara que he visto hasta ahora sobre la conexión entre sistemas de ecuaciones diferenciales y vectores propios, ¡impresionante!
¿Cuál es la importancia de los valores propios/vectores propios?
Los autovectores hacen que entender las transformaciones lineales sea fácil. Son los "ejes" (direcciones) a lo largo de los cuales una transformación lineal actúa simplemente "estirando/comprimiendo" y/o "dando vuelta"; los autovalores te dan los factores por los cuales ocurre esta compresión.
Cuanto más direcciones tengas a lo largo de las cuales comprendes el comportamiento de una transformación lineal, más fácil es entenderla; por lo tanto, deseas tener tantos autovectores linealmente independientes como sea posible asociados a una única transformación lineal.
Hay muchos problemas que pueden ser modelados con transformaciones lineales, y los autovectores ofrecen soluciones muy simples. Por ejemplo, considera el sistema de ecuaciones diferenciales lineales \begin{align*} \frac{dx}{dt} &= ax + by\\\ \frac{dy}{dt} &= cx + dy. \end{align*} Este tipo de sistema surge cuando describes, por ejemplo, el crecimiento de la población de dos especies que se afectan mutuamente. Por ejemplo, podrías tener que la especie $x$ es un depredador de la especie $y$; entre más $x$ tengas, menos $y$ estarán disponibles para reproducirse; pero mientras menos $y$ haya disponibles, menos comida habrá para $x$, por lo que menos $x$ se reproducirán; pero entonces hay menos $x$ disponibles, lo que alivia la presión sobre $y, lo que aumenta; pero entonces hay más comida para $x$, por lo que $x$ aumenta; y así sucesivamente. También surge cuando tienes ciertos fenómenos físicos, como una partícula en un fluido en movimiento, donde el vector de velocidad depende de la posición a lo largo del fluido.
Resolver este sistema directamente es complicado. Pero supongamos que pudieras hacer un cambio de variable de manera que en vez de trabajar con $x$ e $y$, podrías trabajar con $z$ y $w$ (que dependen linealmente de $x$ e $y; es decir, $z=\alpha x+\beta y$ para algunas constantes $\alpha$ y $\beta$, y $w=\gamma x + \delta y$, para algunas constantes $\gamma$ y $\delta$) y el sistema se transformara en algo así como \begin{align*} \frac{dz}{dt} &= \kappa z\\\ \frac{dw}{dt} &= \lambda w \end{align*} es decir, puedes "desacoplar" el sistema, de manera que ahora estás tratando con dos funciones independientes. Entonces, resolver este problema se vuelve bastante fácil: $z=Ae^{\kappa t}$, y $w=Be^{\lambda t}$. Luego puedes usar las fórmulas de $z$ y $w$ para encontrar expresiones para $x$ e $y.
¿Se puede hacer esto? Bueno, ¡se reduce precisamente a encontrar dos autovectores linealmente independientes para la matriz $\left(\begin{array}{cc}a & b\\c & d\end{array}\right)$! $z$ y $w$ corresponden a los autovectores, y $\kappa$ y $\lambda$ a los autovalores. Al tomar una expresión que "combina" $x$ e $y$, y "desacoplarla" en una que actúa independientemente en dos funciones diferentes, el problema se vuelve mucho más fácil.
Esa es la esencia de lo que se espera lograr con los autovectores y autovalores: "desacoplar" las formas en que la transformación lineal actúa en una serie de acciones independientes a lo largo de "direcciones" separadas, que se pueden tratar de manera independiente. Muchos problemas se reducen a descubrir estas "líneas de acción independiente", y entenderlas realmente puede ayudarte a descubrir qué está "realmente" haciendo la matriz/transformación lineal.
+1: Esta es la explicación más clara que he visto hasta ahora sobre la conexión entre sistemas de ecuaciones diferenciales y vectores propios, ¡impresionante!
Me quedé un poco desconcertado después de leer la justificación de que el sistema simplificado no era dz/dt=kappa_w ; dw/dt=lambda_z.
Considera una matriz $A$, por ejemplo, una que represente una transformación física (por ejemplo, rotación). Cuando esta matriz se usa para transformar un vector dado $x$, el resultado es $y = A x$.
Ahora una pregunta interesante es
¿Existen vectores $x$ que no cambien su dirección bajo esta transformación, pero permitan que la magnitud del vector varíe por un escalar $ \lambda $?
Esta pregunta tiene la forma $$A x = \lambda x $$
Entonces, estos vectores especiales $x$ se llaman vector(es) propio(s) y el cambio en la magnitud depende del valor propio $ \lambda $.
@kaka: y perpendiculares a las cuales la proyección es nula, creo. Me gustaría solo decir que esta breve explicación fue genial! Encuentro este buen ejemplo simple muy valioso para servir como motivación para valores propios, matrices, etc. ¡Gracias!
El comportamiento de una transformación lineal puede verse oscurecido por la elección de una base. Para algunas transformaciones, este comportamiento puede aclararse eligiendo una base de autovectores: la transformación lineal es entonces un escalamiento (no uniforme en general) a lo largo de las direcciones de los autovectores. Los autovalores son los factores de escala.
Para alguien que recién comienza álgebra lineal, esto realmente no tiene sentido ni motiva a los eigenvectores. Por ejemplo, podría hacer que el estudiante pregunte ingenuamente, "¿por qué importa la base en absoluto? una rotación de 90 grados es la misma rotación sin importar qué base use para mirarla; nunca se convertirá en una escala en ninguna base..." y luego tendrías que explicar mucho más. Sería bueno poder abordar esto sin asumir que ya saben mucho álgebra lineal.
Creo que si quieres una respuesta mejor, necesitas decirnos con más precisión lo que tienes en mente: ¿estás interesado en aspectos teóricos de los valores propios; tienes una aplicación específica en mente? Las matrices por sí solas son solo conjuntos de números, que adquieren significado una vez que estableces un contexto. Sin contexto, parece difícil darte una buena respuesta. Si usas matrices para describir relaciones de adyacencia, entonces los valores propios/vectores pueden significar una cosa; si los usas para representar aplicaciones lineales, algo más, etc.
Una posible aplicación: En algunos casos, es posible diagonalizar tu matriz $M$ utilizando los valores propios, lo cual te da una expresión agradable para $M^k$. Específicamente, puedes descomponer tu matriz en un producto $SDS^{-1}$, donde $D$ es diagonal, con entradas los valores propios, y $S$ es la matriz con los correspondientes vectores propios asociados. Espero que no sea un problema publicar esto como un comentario. La última vez recibí un par de Courics aquí por publicar un comentario en el sitio de respuestas.
Mr. Arturo: ¡Enfoque interesante! Esto parece conectar con la teoría de curvas características en EDP (quién sabe si se puede generalizar a dimensiones superiores a 1), que son curvas a lo largo de las cuales una EDP se convierte en una ODE, es decir, como dijiste brillantemente, curvas a lo largo de las cuales la EDP se desacopla.
Sí, el método de las características puede generalizarse a dimensiones superiores a 1. En general, el método de las características para ecuaciones diferenciales parciales puede utilizarse para ecuaciones diferenciales parciales escalares quasilineales de primer orden arbitrarias definidas en cualquier variedad suave. Sin embargo, no necesariamente funcionará para sistemas de ecuaciones diferenciales parciales o ecuaciones diferenciales de orden superior.
Cuando aplicas transformaciones a los sistemas/objetos representados por matrices, y necesitas algunas características de estas matrices, debes calcular los eigenvectores (eigenvalues).
"Tener un eigenvalue es una propiedad accidental de una matriz real (ya que puede fallar en tener un eigenvalue), pero cada matriz compleja tiene un eigenvalue."(Wikipedia)
Los eigenvalues caracterizan propiedades importantes de las transformaciones lineales, como si un sistema de ecuaciones lineales tiene una solución única o no. En muchas aplicaciones, los eigenvalues también describen propiedades físicas de un modelo matemático.
Algunas aplicaciones importantes -
Análisis de Componentes Principales (PCA) en reconocimiento de objetos/imagen;
Física - análisis de estabilidad, física de cuerpos en rotación;
Análisis de riesgo de mercado - para definir si una matriz es positiva definida;
PageRank de Google.
Gracias por tu respuesta, pero ¿los eigenvectores/valores propios no se calculan multiplicando iterativamente la matriz por un vector aleatorio? es.wikipedia.org/wiki/Iteración_de_la_potencia En otras palabras, ¿no es igual de rápido empezar con una distribución aleatoria y ver dónde termina todo el tráfico después de varias iteraciones que usar un algoritmo sofisticado que utilice valores propios?
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.
9 votos
en.wikipedia.org/wiki/Eigenvalues_and_eigenvectors ¿Has echado un vistazo a esto? Ofrece una respuesta bastante completa a la pregunta.
1 votos
Aquí tienes una buena explicación: hubpages.com/hub/What-the-Heck-are-Eigenvalues-and-Eigenvectors
26 votos
Huh. Me sorprende enormemente que esta pregunta aún no haya llegado.
21 votos
Me doy cuenta de que esta no es mi pregunta, pero me encantaría ver respuestas que aborden la pregunta específica, "¿Cómo motivar los valores propios y vectores propios a un grupo de estudiantes que solo están familiarizados con una teoría de matrices muy básica y que no saben nada sobre espacios vectoriales o transformaciones lineales?"
6 votos
@Jason: ¡Entonces deberías publicar eso como una pregunta!
0 votos
Estos son los invariantes de las transformaciones importantes...
0 votos
Si estás interesado en la aplicación general de los eigenvalores en el mundo real entonces: -youtu.be/DwJbHrdj3EU
5 votos
Este video de 3b1b es, de lejos, la mejor explicación que he visto por su magnitud.
0 votos
Realmente sorprendido de que esta pregunta aún no haya sido vinculada: math.stackexchange.com/questions/243533/…. El usuario "EuYu" tiene una hermosa analogía, en la que los pares propios y las raíces de los polinomios son igualmente difíciles de explicar intuitivamente, "no porque haya pocas aplicaciones, sino porque hay demasiadas".