Que su matriz sea $A = \lambda u u^T + \mu v v^T$ y suponer que $\lambda \gg \mu$ . Es decir, suponga que su matriz es de rango 2, donde los dos únicos valores propios no nulos son $\lambda$ et $mu$ y uno es mucho más grande que el otro.
Suponiendo que haya utilizado el método de la potencia para calcular un par propio, debería calcular $\tilde \lambda$ et $\tilde u$ (diferentes de los valores "reales" debido al error numérico). Si se utiliza la deflación de Hotelling, se obtendrá una matriz deflactada $$ A' = \lambda u u^T - \tilde{\lambda}\tilde{u}\tilde{u}^T + \mu vv^T$$ Incluso si se calcula el vector propio exactamente ( $\tilde u = u$ ), entonces te quedarás con $$ A' = (\lambda - \tilde{\lambda})u u^T + \mu vv^T$$ Ahora bien, si $\mu/\lambda \sim \epsilon$ , donde $\epsilon$ es la precisión de la máquina, entonces $|\lambda-\tilde{\lambda}| \approx |\mu|$ , por lo que calculará $\mu$ a casi ningún bit de precisión ya que $A'$ es ahogado por el ruido numérico debido al proceso de deflación.
Se puede generalizar esto a una matriz para la que la iteración inversa cambiada funcione eligiendo una matriz simétrica de rango completo al azar, pero haciendo que el valor propio dominante sea $1/\epsilon$ veces mayor que cualquier otra.
De forma más general, las matrices con valores propios fuertemente graduados sufrirán enormemente este tipo de deflación, ya que cada vez que se reste el siguiente eigenespacio principal, la matriz deflactada restante se verá corrompida por un factor de aproximadamente la relación de las magnitudes de los valores propios (cuando estén ordenados).