¿Cómo puedo demostrar que la varianza de la regresión polinómica local es creciente con el grado del polinomio (Ejercicio 6.3 en Elementos of Statistical Learning, segunda edición)?
Esta pregunta se ha formulado antes de pero la respuesta sólo indica que se sigue con facilidad.
Más concretamente, consideramos $y_{i}=f(x_{i})+\epsilon_{i}$ con $\epsilon_{i}$ siendo independientes con desviación estándar $\sigma.$
El estimador viene dado por
$$ \hat{f}(x_{0})=\left(\begin{array}{ccccc} 1 & x_{0} & x_{0}^{2} & \dots & x_{0}^{d}\end{array}\right)\left(\begin{array}{c} \alpha\\ \beta_{1}\\ \vdots\\ \beta_{d} \end{array}\right) $$ para $\alpha,\beta_{1},\dots,\beta_{d}$ resolviendo la siguiente ponderación problema de mínimos cuadrados ponderados $$ \min\left(y_{d}-\underbrace{\left(\begin{array}{ccccc} 1 & x_{1} & x_{1}^{2} & \dots & x_{1}^{d}\\ \vdots\\ 1 & & & & x_{n}^{d} \end{array}\right)}_{X}\left(\begin{array}{c} \alpha\\ \beta_{1}\\ \vdots\\ \beta_{d} \end{array}\right)\right)^{t}W\left(y-\left(\begin{array}{ccccc} 1 & x_{1} & x_{1}^{2} & \dots & x_{1}^{d}\\ \vdots\\ 1 & & & & x_{n}^{d} \end{array}\right)\left(\begin{array}{c} \alpha\\ \beta_{1}\\ \vdots\\ \beta_{d} \end{array}\right)\right) $$ para $W=\text{diag}\left(K(x_{0},x_{i})\right)_{i=1\dots n}$ con $K$ siendo el núcleo de regresión. La solución del problema de mínimos cuadrados ponderados se puede escribir como $$ \left(\begin{array}{cccc} \alpha & \beta_{1} & \dots & \beta_{d}\end{array}\right)=\left(X^{t}WX\right)^{-1}X^{t}WY. $$ Así, para $l(x_{0})=\left(\begin{array}{ccccc} 1 & x_{0} & x_{0}^{2} & \dots & x_{0}^{d}\end{array}\right)\left(X^{t}WX\right)^{-1}X^{t}W$ obtenemos $$ \hat{f}(x_{0})=l(x_{0})Y $$ lo que implica que $$ \text{Var }\hat{f}(x_{0})=\sigma^{2}\left\Vert l(x_{0})\right\Vert ^{2}=\left(\begin{array}{ccccc} 1 & x_{0} & x_{0}^{2} & \dots & x_{0}^{d}\end{array}\right)\left(X^{t}WX\right)^{-1}X^{t}W^{2}X\left(X^{t}WX\right)^{-1}\left(\begin{array}{ccccc} 1 & x_{0} & x_{0}^{2} & \dots & x_{0}^{d}\end{array}\right)^{t}. $$ Mi enfoque: Una inducción utilizando la fórmula de la inversa de una matriz de bloques matriz de bloques, pero no tuve éxito.
El papel Regresión multivariante por mínimos cuadrados ponderados localmente de D. Ruppert y M. P. Wand deriva una expresión asintótica para la varianza de $n\rightarrow\infty$ en el Teorema 4.1 pero no está claro que sea creciente en el grado.