Para entender por qué usted encontrar los autovalores/vectores propios en todas partes, usted debe primero entender por qué usted se encuentre con matrices y vectores en todas partes.
En un gran número de situaciones, los objetos de estudio y de las cosas que puedes hacer con ellos se refieren a los vectores y transformaciones lineales, los cuales son representados como matrices.
Así, en muchas situaciones interesantes, importantes relaciones se expresan como
$$\vec{y} = M \vec{x}$$
donde $\vec{y}$ y $\vec{x}$ son vectores y $M$ es una matriz. Esto abarca desde los sistemas de ecuaciones lineales a resolver (que se produce en casi todas partes en la ciencia y la ingeniería) a las más sofisticadas de problemas de ingeniería (simulaciones de elementos finitos). También es la base para la (mucha) de la mecánica cuántica. Es más utilizado para describir el típico transformaciones geométricas que se puede hacer con los gráficos vectoriales y gráficos 3D en los juegos de ordenador.
Ahora, esto no es generalmente recta hacia adelante para mirar a algunos de la matriz $M$ y saber inmediatamente qué es lo que va a hacer cuando se multiplica con algunos vector $\vec{x}$. También, en el estudio de los algoritmos iterativos que usted necesita saber algo acerca de los poderes superiores de la matriz $M$, es decir $M^k = M \cdot M \cdot ... de M$, $k$ veces. Esto es un poco incómodo y costoso para calcular en un ingenuo de la moda.
Para una gran cantidad de matrices, usted puede encontrar especiales con los vectores de una manera muy simple de la relación entre el vector $\vec{x}$ en sí, y el vector $\vec{y} = Mx$. Por ejemplo, si usted mira la matriz $\left( \begin{array}{cc} 0 & 1 \\ 1 & 0\end{array}\right)$, se puede ver que el vector $\left(\begin{array}{c} 1\\ 1\end{array}\right)$ cuando se multiplica con la matriz que se acaba de dar usted que el vector de nuevo!
Para un vector, es muy fácil ver lo que M $\vec{x}$ que parece, e incluso lo $M^k \vec{x}$ que parece, ya que, obviamente, la aplicación repetida no va a cambiar.
Esta observación es generalizada por el concepto de vectores propios. Un vector propio de una matriz $M$ es cualquier vector $\vec{x}$ que sólo se obtiene a escala (es decir, sólo se multiplica por un número) cuando se multiplica con $M$. Formalmente,
$M $\vec{x} = \lambda \vec{x}$$
para un número $\lambda$ (reales o complejos dependiendo de las matrices que están buscando).
Así, si la matriz $M$ describe un sistema de algún tipo, los vectores propios son aquellos vectores que, al pasar por el sistema, han cambiado de una manera muy fácil. Si $M$, por ejemplo, describe geométrica de las operaciones, luego $M$ podría, en principio, estirar y girar sus vectores. Pero autovectores sólo se estiran, no gira.
El siguiente concepto importante es el de un eigenbasis. Por la elección de una base diferente para tu espacio vectorial, puede alterar la apariencia de la matriz $M$ en base a eso. Simplemente hablando, el $i$-ésima columna de $M$ le dice lo que el $i$-th base de vectores multiplicados por $M$ vería. Si todos los vectores de la base son también vectores propios, entonces no es difícil ver que la matriz $M$ es diagonal. Diagonal de las matrices son un espectáculo de bienvenida, porque son realmente fáciles de tratar con: Matriz-vector y Matriz de la multiplicación de la matriz se vuelve muy eficiente, y el cálculo de la $k$-ésima potencia de una matriz diagonal es también trivial.
Creo que para un "amplio" introducción este podría ser suficiente?