Vale, pues tengo n variables aleatorias gaussianas dependientes que están relacionadas por una matriz de covarianza n x n conocida.
Lo que me gustaría hacer, es producir una transformación lineal para convertirlas en n variables aleatorias independientes que sean todas de varianza 1. Lo que podría hacer es una ortogonalización de Gram-Schmidt; para la primera variable aleatoria, sólo tengo que dividirla por la raíz cuadrada de su varianza (su desviación estándar) y ese es el componente ortonormal 1. Luego hago lo mismo con la segunda variable, pero restando su correlación con la primera variable aleatoria por la primera variable aleatoria, y luego la normalizo para que tenga una varianza de 1 de nuevo. Y así sucesivamente.
PERO el primer componente que produzca estará -a falta de una mejor descripción- mejor condicionado que el segundo. Y sólo empeora con cada componente adicional. Y me refiero al mismo sentido del término como en lo bien condicionada que está una matriz. Cada vez, estoy restando variables aleatorias de otras variables aleatorias, y los errores debidos a las limitaciones de medición de las variables aleatorias se amplifican más y más debido a los errores de sustracción de las componentes de todas las componentes ortonormales previamente definidas. En lugar de que la primera componente ortonormal esté realmente bien condicionada y cada una de las siguientes sea cada vez más deficiente, ¿conoces una forma de producir una base ortonormal de modo que todas sean igualmente deficientes? O mínimamente deprimente en promedio, tal vez debería decir.