Puede que esta sea una pregunta antigua, y ciertamente hay algunos posts relacionados que mencionaré a continuación. Sin embargo, todavía no me parece que haya una respuesta clara. La pregunta es: ¿hay una forma intuitiva de explicar por qué el proceso de Gram-Schmidt modificado (MGS) para hacer la factorización QR de una matriz $A\in\mathbb{C} ^{m\times n}$ da una $Q$ ¿una matriz "más ortogonal" que la del proceso clásico de Gram-Schmidt (CGS)? Por "intuitivo", espero que la explicación pueda relacionarse con la diferencia de procedimiento entre MGS y CGS de forma transparente.
En Trefethen's Álgebra lineal numérica La distinción entre el CGS y el MGS es la siguiente:
En el $j$ paso, ambos procesos de GS calculan $q_j$ como $$ q_j=\frac{P_j a_j }{\|| P_j a_j \|| } $$ mientras que para CGS, $$ P_j=I-Q_{j-1}Q_{j-1}^* $$ pero para MGS, $$ P_j=(I-q_{j-1}q_{j-1}^* )...(I-q_2q_2^* )(I-q_1q_1^* ) $$
Trefethen no discute por qué esta diferencia de procedimiento conduce a la mejor estabilidad numérica de MGS.
@AlgebraicPavel ha dado límites cuantitativos aquí en los factores de ortogonalidad: $\||I-Q^* Q\||\leq O(\epsilon \kappa(A))$ para MGS, mientras que $\||I-Q^* Q\||\leq O(\epsilon \kappa^2(A))$ para CGS. Estos resultados son suficientemente cuantitativos. Sin embargo, como se mencionó anteriormente, me gustaría un razonamiento más intuitivo de cómo se obtiene.
@Ian dijo aquí eso:
"El Gram-Schmidt clásico, en el que se restan las proyecciones del (k+1)º vector sobre los primeros k vectores, es bastante inestable, especialmente en dimensiones altas, porque esencialmente se asegura que el nuevo vector es ortogonal al vector de entrada en cuestión, pero no se asegura que los vectores que se obtienen al final del proceso sean ortogonales entre sí. Combina eso con el hecho de que puedes terminar restando números casi iguales y obtienes una mala situación".
Esto parece una explicación intuitiva y cualitativa del problema de la CGS. Sin embargo, al entrar en detalles, no me siento cómodo con esta línea de razonamiento. En concreto, decir que el "nuevo vector es ortogonal al vector de entrada en cuestión" no parece estar de acuerdo con lo que hace CGS. Tanto para CGS como para MGS, el nuevo vector ( $a_j$ ) se resta en un intento de hacerla ortogonal a la existente $q_i, i=1,...,j-1$ . Puede que no sea apropiado llamar a estos $q_i$ "vector de entrada", y esto no aborda la principal diferencia de procedimiento entre MGS y CGS.
En este puesto, el $4\times 3$ La matriz de Lauchli se utiliza como ejemplo para demostrar los diferentes resultados entre MGS y CGS. Aunque tampoco hay una explicación intuitiva a la cuestión, observo que para este ejemplo de Lauchli, el resultado que $q_3^{CGS}$ no es ortogonal a $q_2^{CGS}$ es porque el $r_{23}^{CGS}$ se calcula erróneamente, con un error relativo del 100%. Sin embargo, no consigo entender por qué el procedimiento MGS puede aliviar este problema de forma significativa.
Agradezco mucho cualquier comentario.