Yo soy la estimación de un modelo de regresión con variable en el tiempo de los parámetros de filtro de Kalman suponiendo que los coeficientes siguen un paseo aleatorio. Entonces, yo uso OLS en la ampliación de la ventana, un.k.una. recursiva de mínimos cuadrados (RLS) para comparar los resultados. Me parece que los intervalos de confianza alrededor de la KF estimaciones son mucho más amplios que aquellos alrededor de la RLS estimaciones. Mi intuición es que, en cada paso del filtrado de la recursividad, tenemos que añadir el estado de las perturbaciones de varianza-covarianza de la matriz para la predicción de la varianza-covarianza de la matriz de los estados. Para hacer hormigón, tomar el modelo de espacio de estado:
$y_t = x_t\beta_t +\epsilon_t$ donde $\epsilon_t\sim N(0,\Sigma_{\epsilon})$ (1) la medición de la ecuación
$\beta_{t+1}=\beta_{t}+\eta_{t}$ donde $\eta_t\sim N(0,\Sigma_{\eta})$ (2) es la ecuación de estado
donde $Y_t = [y_1 y_2 ... y_t]'$ $T\times 1$ vector columna, $\beta_t$ $\eta_t$ $m\times 1$ vectores columna, $x_t$ $1*m$ parte de a $X_t=[x_1' x_2' ... x_t']'$ que es $t\times m$, $\epsilon_t$ y $y_t$ $1\times 1$, $\Sigma_{\epsilon}$ es $1*1$ $\Sigma_{\eta}$ $m\times m$.
El KF recusion lee:
$v_t = y_t - x_t\beta_t$ (3) es el error de predicción
$F_t = x_tP_tx_t'+ \Sigma_{\epsilon}$ (4) es la predicción de la varianza de error
$\beta_{t|t} = \beta_t + P_tx_t'F_t^{-1}v_t$ (5) el estado filtrado
$P_{t|t} = P_t - P_tx_t'F_t^{-1}x_tP_t$ (6) el estado filtrado de la varianza
$\beta_{t+1} = \beta_{t} + K_tv_t = \beta_{t|t}$ (7) estado de predicción
$P_{t+1} = P_t(1-K_tx_t)' + \Sigma_{\eta} = P_{t|t} + \Sigma_{\eta}$ (8) estado de predicción de la varianza
donde $K_t = P_tx_t'F_t^{-1}$ es la Ganancia de Kalman,
$\Sigma_{\eta}$ $\Sigma_{\epsilon}$ se estima a través de ML y difusa de inicialización se utiliza con $\beta_1 = 0$$P_1 = 10^7I_{m*m}$.
Recursiva de mínimos cuadrados(RLS) se obtiene si $\Sigma_{\eta}=0$. En ese caso, (5) es igual a (7) y (6) es igual a (8), por lo que se filtra y se predijo que los estados y sus varianzas son iguales. Por supuesto, se filtra y se predijo eran ya los mismos que antes (porque se supone que una caminata aleatoria). Si estimamos por MCO utilizando el ejemplo desde el período 1 hasta el $m+1$ y si usamos las estimaciones OLS, decir $\hat{\beta}_{m+1}$ como estado inicial $\beta_1$$X_{m+1}'X_{m+1})^{-1}$$P_1$, obtenemos que el KF se reduce a RLS.
Esto es debido a que este síndrome puede ser escrita como:
$\hat{\beta}_t=\hat{\beta}_{t-1}+\frac{(X_{t-1}'X_{t-1})^{-1}x_t'(y_t-x_t\hat{\beta}_{t-1})}{x_t(X_{t-1}'X_{t-1})^{-1}x_t'+1}$
y
$(X_t'X_t)^{-1} = (X_{t-1}'X_{t-1})^{-1} - \frac{(X_{t-1}'X_{t-1})^{-1}x_t'x_t(X_{t-1}'X_{t-1})^{-1}}{x_t(X_{t-1}'X_{t-1})^{-1}x_t'+1}$
para $t= m+2,m+3,...T$
Claramente, el KF nos da $P_{t|t}=P_{t+1}=(X_{t}'X_{t})^{-1}$$\beta_{t|t}= \hat{\beta}_t$.
Ahora, mi pregunta es por qué, el algoritmo RLS (o el KF con invariante en el tiempo coeficientes si se prefiere), me da, muy a menudo, más estrechos intervalos de confianza de la KF con variables de tiempo de los coeficientes. Está claro thatin (8) vamos a seguir añadiendo $\Sigma_{\eta}$ que no lo hacemos en virtud de este síndrome; sin embargo, estimamos $\Sigma_{\eta}$ a través de ML (por lo que podría ser cercano a 0) y que el ruido es utilizado por la Ganancia de Kalman, de manera óptima, peso $\beta_t$ $v_t$ en (5) y (7). Mi única explicación es que el verdadero DGP ha invariante en el tiempo coeficientes o que la caminata aleatoria es un mal modelo para la ecuación de estado y por lo tanto la Ganancia de Kalman no es capaz de utilizar el ruido que $\Sigma_{\eta}$ crea para obtener estimaciones más precisas del estado. Sin embargo, no estoy totalmente convencido de que por parte de este.
En otras palabras, si el KF es la mínima varianza insesgada estimador lineal, ya que el síndrome de las piernas inquietas es un caso especial de la KF, no puede ser de varianza mínima a menos que sea sesgada o no lineal, lo que no es, ya que es la OPERACIÓN, o a menos RLS coincide con KF; si el RLS es mínima varianza, el KF debe estimar exactamente el mismo que el RLS; siempre se desvian, KF debe vencer RLS.
información adicional para responder a hejseb:
recursiva de mínimos cuadrados: ols en una expansión de la ventana, básicamente. en este papel https://link.springer.com/article/10.1007/BF01973191 , las ecuaciones (4) y (5) definir el algoritmo RLS (que es equivalente a ejecutar una regresión por MCO de tiempo de 1 hasta t y la obtención de los coeficientes para el tiempo t, entonces desde 1 hasta t+1 y la obtención de los coeficientes para el tiempo t+1, y así sucesivamente hasta que se ejecute una regresión por MCO sobre el total de la muestra de 1 hasta T).
información adicional para responder a Taylor:
En el caso de la RLS, los intervalos de confianza son, simplemente, $\hat{\beta}_t +- 1.645*sqrt(diag(\sigma^2(X_t´X_t)^{-1}))$ donde $\sigma^2=(T-m)^{-1}(\epsilon'\epsilon)$. En el caso de la KF son $\beta_{t|t}+-1.645*sqrt(diag(P_{t|t}))$, donde 1.645 es el valor crítico elegí. Por supuesto, tenemos que $diag(P_{t|t}) >diag(\sigma^2(X´_tX_t)^{-1})$. Mi pregunta es ¿por qué. Yo esperaría lo contrario. Tenga en cuenta que $\sigma^2$ es variable en el tiempo si aplico el OLS directamente (me da un diferente $\sigma$ estimación cada vez que ejecute la OPERACIÓN sobre la expansión de la ventana; sin embargo, si uso el KF con invariante en el tiempo coeficientes, puedo estimar que es $(T-m)^{-1}\sum(v_t^2/F_t)$ y hacer que sea invariante en el tiempo; si yo uso el síndrome de la pierna inquieta, solo puedo calcular los residuos al final de la recursividad y el uso de $\sigma^2=(T-m)^{-1}\epsilon'\epsilon$. Esto no lleva a ninguna de las diferencias por lo que esta no es la razón. Tenga en cuenta que en el KF con variables de tiempo de los coeficientes, $\Sigma_{\epsilon}$ es invariante en el tiempo y se estima a través de ML.