Como un medio de motivar a la pregunta, considere la posibilidad de un regresison problema en donde buscamos para estimar el $Y$ el uso de las variables observadas $\{ a, b \}$
Al hacer multivariante polinomio regresison, trato de encontrar el óptimo paramitization de la función
$$f(y)=c_{1}a+c_{2}b+c_{3}a^{2}+c_{4}ab+c_{5}b^{2}+\cdots$$
que mejor ajuste los datos en por lo menos el cuadrado de sentido.
El problema con esto, sin embargo, es que los parámetros $c_i$ no son independientes. Es allí una manera de hacer la regresión en un conjunto diferente de "base" de los vectores que son ortogonales? Hacer esto tiene muchas ventajas obvias
1) los coeficientes son no correlacionados. 2) los valores de la $c_i$'s mismos ya no dependen del grado de los coeficientes. 3) Esto también tiene la ventaja computacional de ser capaz de caída de los términos de orden superior para una más gruesa, pero aún precisa aproximación a los datos.
Esto se consigue fácilmente en la única variable de caso de uso de polinomios ortogonales, el uso de un bien estudiado como, por ejemplo, los Polinomios de Chebyshev. No es obvio sin embargo (para mí) ¿cómo generalizar esta! Se me ocurrió que yo podría mutiply polinomios de chebyshev de a pares, pero no estoy seguro de si eso es matemáticamente correcta de hacer las cosas.
Su ayuda es muy apreciada