21 votos

¿Por qué la regularización destruye la ortogonalidad de las predicciones y los residuos en la regresión lineal?

Siguiendo con esta pregunta...

En los mínimos cuadrados ordinarios, las predicciones y los residuos son ortogonales. $$\sum_{i=1}^n\hat{y}_i (y_i - \hat{y}_i) = 0$$

Si estimamos los coeficientes de regresión utilizando algún otro método pero el mismo modelo, como el uso de la regularización, ¿por qué, intuitivamente, debería eso destruir la ortogonalidad?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X