Para dar un poco de ejemplo práctico, vamos a considerar la siguiente secuencia iterativa:
$$ x_{i+1} = \frac{A x_i}{\left |A x_i \right|},$$
Donde el $x_i$ son vectores y $A$ es una matriz cuadrada con un juego de dimensión. El primer vector $x_1$ será random1.
Al $i$ es mayor, $x_i$ más y más estar alineado a un autovector correspondiente al mayor valor propio de a $A$ y rápidamente convertido en un vector propio para todos los propósitos prácticos. Por lo que podemos utilizar esta secuencia para obtener una aproximación numérica para el mayor autovalor de a $A$ y el correspondiente vector propio (de longitud 1). Este enfoque es que realmente se usan para este propósito.
Ahora, si queremos obtener el segundo mayor autovalor de a $A$ (y el correspondiente vector propio) de una manera similar, tenemos que eliminar la influencia del primer autovalor, como inevitablemente iba a dominar nuestra secuencia de otra manera. Por lo tanto tenemos que trabajar en un subespacio que es ortogonal al vector propio para el mayor autovalor. Gram–Schmidt orthonormalisation proporciona una forma para hacer esto: Podemos empezar con dos vectores aleatorios $x_0$ $y_0$ y, a continuación, hacemos una bacteria Gram–Schmidt después de cada paso:
$$\begin{align}
x_{i+1} &= \frac{A x_i}{\left |A x_i \right|},\\
y_{i+1} &= \frac{A y_i - \left \langle A y_i, x_{i+1} \right \rangle}{\left | A y_i - \left \langle A y_i, x_{i+1} \right \rangle \right |}
\end{align}
$$
Debido a esto, $x_i$ se alinee con el primer vector propio y $y_i$ se alinee con la segunda. Podemos extender este esquema a seguir autovectores si nos gusta.
La característica fundamental de las bacterias Gram–Schmidt proceso que aprovechamos aquí es que la primera $k$ vectores de su resultado abarcan el mismo subespacio como la primera $k$ vectores de entrada para cualquier $k$. Una consecuencia de esto es que el $k$th salida vector es ortogonal a todos los anteriores de la salida de los vectores. Obviamente, esto no iba a trabajar con cualquier base.
Ahora, en muchos casos, usted puede determinar los primeros autovectores más fácilmente, pero hay problemas análogos, a donde necesita ir de la manera descrita anteriormente. Por ejemplo, se utiliza para el cálculo numérico de los exponentes de Lyapunov, donde $A$, $x$, y $y$ están sujetas a un complejo de la evolución temporal.
1 y por lo tanto podemos asumir que no es ortogonal a cualquier vector propio de a $A$