Cresta de regresión de las estimaciones de los parámetros de $\boldsymbol \beta$ en un modelo lineal $\mathbf y = \mathbf X \boldsymbol \beta$ por $$\hat{\boldsymbol \beta}_\lambda = (\mathbf X^\top \mathbf X + \lambda \mathbf I)^{-1} \mathbf X^\top \mathbf y,$$ where $\lambda$ is a regularization parameter. It is well-known that it often performs better than the OLS regression (with $\lambda=0$) cuando hay una gran correlación predictores.
Un teorema de existencia para la regresión ridge dice que no siempre existe un parámetro $\lambda^* > 0$ de manera tal que la media de cuadrados de error de $\hat{\boldsymbol \beta}_\lambda$ es estrictamente menor que la media del cuadrado del error de la estimación OLS $\hat{\boldsymbol \beta}_\mathrm{OLS}=\hat{\boldsymbol \beta}_0$. En otras palabras, un valor óptimo de $\lambda$ es siempre distinto de cero. Esto aparentemente fue probada por primera vez en Hoerl y Kennard, 1970 y que se repite en muchas notas de la conferencia que puedo encontrar en línea (por ejemplo, aquí y aquí). Mi pregunta es acerca de las hipótesis de este teorema:
Hay suposiciones acerca de la matriz de covarianza $\mathbf X^\top \mathbf X$?
Hay suposiciones acerca de la dimensionalidad de $\mathbf X$?
En particular, es el teorema sigue siendo cierto si predictores son ortogonales (es decir, $\mathbf X^\top \mathbf X$ es la diagonal), o incluso si $\mathbf X^\top \mathbf X=\mathbf I$? Y es cierto, si sólo hay uno o dos predictores (es decir, un pronóstico y una intercepción)?
Si el teorema no hace ninguna de esas hipótesis y sigue siendo cierto incluso en estos casos, entonces, ¿por qué cresta de regresión generalmente se recomienda sólo en el caso de la correlación de los predictores, y nunca (?) recomendado para simple (es decir, no varios) de regresión?
Esto está relacionado con mi pregunta sobre vista Unificada de la contracción: ¿cuál es la relación (si la hay) entre Stein paradoja, la regresión ridge, y de efectos aleatorios en los modelos mixtos?, pero las respuestas no hay de aclarar este punto hasta ahora.