Aunque esta pregunta ya ha sido respondida, una forma útil de recordarla para situaciones más generales es la ley de las expectativas iteradas. Tenga en cuenta que la independencia para la predicción no se mantiene incluso si el "proceso verdadero" es independiente. Esto se debe a que las estimaciones no son independientes, a menos que se tenga ZTZZTZ y ZnewZTnewZnewZTnew que ambos sean diagonales ("nuevos" para las predicciones)
Así que si dejas que ˆYti^Yti denotan los valores mensuales estimados en el año tt por mes ii y ˆXt^Xt denotan el valor anual estimado, tienes:
ˆXt=12∑i=1ˆYti^Xt=12∑i=1^Yti
Var(ˆXt)=E[Var(ˆXt|ˆYt,1,…,ˆYt,12)]+Var[E(ˆXt|ˆYt,1,…,ˆYt,12)]Var(^Xt)=E[Var(^Xt|^Yt,1,…,^Yt,12)]+Var[E(^Xt|^Yt,1,…,^Yt,12)]
(no estoy seguro de si debe ser un promedio o un total, si es un promedio, entonces divida mi resultado final para el error estándar por 1212 y dividir la varianza por 144144 ) Si conectamos una cosa con la otra, obtenemos:
Var(ˆXt)=E[Var(12∑i=1ˆYti|ˆYt,1,…,ˆYt,12)]+Var[E(12∑i=1ˆYti|ˆYt,1,…,ˆYt,12)]Var(^Xt)=E[Var(12∑i=1^Yti|^Yt,1,…,^Yt,12)]+Var[E(12∑i=1^Yti|^Yt,1,…,^Yt,12)] =Var[12∑i=1ˆYti]=12∑i=112∑j=1Cov(ˆYtj,ˆYti)=Var[12∑i=1^Yti]=12∑i=112∑j=1Cov(^Ytj,^Yti)
Ahora bien, cuando se condiciona a algo, es una constante, por lo que el término de varianza "interna" desaparece.
Ahora tiene un modelo de regresión para YtiYti por lo que sabemos que
ˆYti=ZTti,newˆβCov(ˆYti,ˆYsj)=s2ZTti,new(ZTZ)−1Zsj,newˆβ=(ZTZ)−1ZTYs2=1n−dim(ˆβ)(Y−Zˆβ)T(Y−Zˆβ)
Donde Z y Y son la matriz y el vector que usaste para ajustar la regresión (estoy asumiendo una regresión OLS aquí), dim(ˆβ) es el número de betas que ha ajustado (incluyendo la intercepción). Zti,new es un nuevo conjunto de coeficientes de regresión que se utilizará en la predicción.
Tenga en cuenta que para la predicción, sus estimaciones de Y son no es independiente aunque los "valores verdaderos" lo sean. Así que la raíz cuadrada de N regla no se aplica, a menos que su Z son ortogonales, por lo que (ZTZ)−1=I y ZTtiZsj=0 cuando s≠t o i≠j .
Introduciendo esto en la fórmula de la varianza para ˆXt nos encontramos con que:
Var(ˆXt)=12∑i=112∑j=1s2ZTti,new(ZTZ)−1Ztj,new=s2JTZt,new(ZTZ)−1ZTt,newJ
Donde J es una columna de 12 unos, y Zt,new es el doce ZTti filas para la predicción apiladas unas sobre otras, de dimensión 12×dim(ˆβ) .
Pero ten en cuenta que también tenemos el proceso "verdadero" Xt se supone que se rige por el modelo de regresión, por lo que volvemos a aplicar la ley de expectativas iteradas, pero condicionando a ˆXt esta vez:
Var(Xt)=E[Var(Xt|ˆXt)]+Var[E(Xt|ˆXt)]=E[Var(12∑i=1Yt|ˆYti)]+Var[ˆXt] =E[12∑i=1Var(Yti)]+Var[ˆXt]=12s2+s2JTZt,new(ZTZ)−1ZTt,newJ
Probablemente debería poner aprox porque esto es un "plug-in" de s2 para la "verdadera varianza" σ2 - Sin embargo, no conozco a mucha gente que no haga esto. También se justifica por motivos bayesianos como la forma adecuada de tener en cuenta la incertidumbre en la estimación σ2 para el modelo normal, además de ser un estimador insesgado por motivos frecuentistas. Así que el error estándar anual debería ser realmente
s√12+JTZt,new(ZTZ)−1ZTt,newJ
Entonces, ¿qué √12 regla está haciendo esencialmente aquí es ignorar la incertidumbre en la estimación de las betas. Si ya se estiman las betas bastante bien, entonces esto hará poca diferencia en la √12 regla - probablemente algo como √13 . Si las betas no se estiman bien, o se está cerca de la multicolinealidad, el término extra puede ser importante.hb**
texto
**