Mostraré el resultado para cualquier regresión lineal múltiple, tanto si los regresores son polinomios de Xt o no. De hecho, muestra un poco más de lo que pedías, porque muestra que cada residuo LOOCV es idéntico al correspondiente residuo ponderado por apalancamiento de la regresión completa, no sólo que se puede obtener el error LOOCV como en (5.2) (podría haber otras formas en las que los promedios coinciden, aunque no cada término del promedio sea el mismo).
Permítanme tomarme la libertad de utilizar una notación ligeramente adaptada.
Primero demostramos que ˆβ−ˆβ(t)=(ˆut1−ht)(X′X)−1X′t,(A) donde ˆβ es la estimación utilizando todos los datos y ˆβ(t) la estimación al dejar fuera X(t) , observación t . Dejemos que Xt sea definido como un vector de filas tal que ˆyt=Xtˆβ . ˆut son los residuos.
La prueba utiliza el siguiente resultado algebraico matricial.
Dejemos que A sea una matriz no singular, b un vector y λ un escalar. Si λ≠−1b′A−1b Entonces (A+λbb′)−1=A−1−(λ1+λb′A−1b)A−1bb′A−1(B)
La prueba de (B) se desprende inmediatamente de la comprobación de {A−1−(λ1+λb′A−1b)A−1bb′A−1}(A+λbb′)=I.
El siguiente resultado es útil para demostrar (A)
(X′(t)X(t))−1X′t=(11−ht)(X′X)−1X′t. (C)
Prueba de (C): Por (B) tenemos, utilizando ∑Tt=1X′tXt=X′X , (X′(t)X(t))−1=(X′X−X′tXt)−1=(X′X)−1+(X′X)−1X′tXt(X′X)−11−Xt(X′X)−1X′t. Así que encontramos (X′(t)X(t))−1X′t=(X′X)−1X′t+(X′X)−1X′t(Xt(X′X)−1X′t1−Xt(X′X)−1X′t)=(11−ht)(X′X)−1X′t.
La prueba de (A) se deduce ahora de (C): Como X′Xˆβ=X′y, tenemos (X′(t)X(t)+X′tXt)ˆβ=X′(t)y(t)+X′tyt, o {Ik+(X′(t)X(t))−1X′tXt}ˆβ=ˆβ(t)+(X′(t)X(t))−1X′t(Xtˆβ+ˆut). Así que, ˆβ=ˆβ(t)+(X′(t)X(t))−1X′tˆut=ˆβ(t)+(X′X)−1X′tˆut1−ht, donde la última igualdad se deduce de (C).
Ahora bien, ten en cuenta ht=Xt(X′X)−1X′t . Multiplique a través de (A) por Xt , añada yt en ambos lados y reordenar para obtener, con ˆu(t) los residuos resultantes de utilizar ˆβ(t) ( yt−Xtˆβ(t) ), ˆu(t)=ˆut+(ˆut1−ht)ht o ˆu(t)=ˆut(1−ht)+ˆutht1−ht=ˆut1−ht