5 votos

Intervalo de confianza del filtro Kalman vs OLS en la expansión de ventana (RLS)

Yo soy la estimación de un modelo de regresión con variable en el tiempo de los parámetros de filtro de Kalman suponiendo que los coeficientes siguen un paseo aleatorio. Entonces, yo uso OLS en la ampliación de la ventana, un.k.una. recursiva de mínimos cuadrados (RLS) para comparar los resultados. Me parece que los intervalos de confianza alrededor de la KF estimaciones son mucho más amplios que aquellos alrededor de la RLS estimaciones. Mi intuición es que, en cada paso del filtrado de la recursividad, tenemos que añadir el estado de las perturbaciones de varianza-covarianza de la matriz para la predicción de la varianza-covarianza de la matriz de los estados. Para hacer hormigón, tomar el modelo de espacio de estado:

$y_t = x_t\beta_t +\epsilon_t$ donde $\epsilon_t\sim N(0,\Sigma_{\epsilon})$ (1) la medición de la ecuación

$\beta_{t+1}=\beta_{t}+\eta_{t}$ donde $\eta_t\sim N(0,\Sigma_{\eta})$ (2) es la ecuación de estado

donde $Y_t = [y_1 y_2 ... y_t]'$ $T\times 1$ vector columna, $\beta_t$ $\eta_t$ $m\times 1$ vectores columna, $x_t$ $1*m$ parte de a $X_t=[x_1' x_2' ... x_t']'$ que es $t\times m$, $\epsilon_t$ y $y_t$ $1\times 1$, $\Sigma_{\epsilon}$ es $1*1$ $\Sigma_{\eta}$ $m\times m$.

El KF recusion lee:

$v_t = y_t - x_t\beta_t$ (3) es el error de predicción

$F_t = x_tP_tx_t'+ \Sigma_{\epsilon}$ (4) es la predicción de la varianza de error

$\beta_{t|t} = \beta_t + P_tx_t'F_t^{-1}v_t$ (5) el estado filtrado

$P_{t|t} = P_t - P_tx_t'F_t^{-1}x_tP_t$ (6) el estado filtrado de la varianza

$\beta_{t+1} = \beta_{t} + K_tv_t = \beta_{t|t}$ (7) estado de predicción

$P_{t+1} = P_t(1-K_tx_t)' + \Sigma_{\eta} = P_{t|t} + \Sigma_{\eta}$ (8) estado de predicción de la varianza

donde $K_t = P_tx_t'F_t^{-1}$ es la Ganancia de Kalman,

$\Sigma_{\eta}$ $\Sigma_{\epsilon}$ se estima a través de ML y difusa de inicialización se utiliza con $\beta_1 = 0$$P_1 = 10^7I_{m*m}$.

Recursiva de mínimos cuadrados(RLS) se obtiene si $\Sigma_{\eta}=0$. En ese caso, (5) es igual a (7) y (6) es igual a (8), por lo que se filtra y se predijo que los estados y sus varianzas son iguales. Por supuesto, se filtra y se predijo eran ya los mismos que antes (porque se supone que una caminata aleatoria). Si estimamos por MCO utilizando el ejemplo desde el período 1 hasta el $m+1$ y si usamos las estimaciones OLS, decir $\hat{\beta}_{m+1}$ como estado inicial $\beta_1$$X_{m+1}'X_{m+1})^{-1}$$P_1$, obtenemos que el KF se reduce a RLS.

Esto es debido a que este síndrome puede ser escrita como:

$\hat{\beta}_t=\hat{\beta}_{t-1}+\frac{(X_{t-1}'X_{t-1})^{-1}x_t'(y_t-x_t\hat{\beta}_{t-1})}{x_t(X_{t-1}'X_{t-1})^{-1}x_t'+1}$

y

$(X_t'X_t)^{-1} = (X_{t-1}'X_{t-1})^{-1} - \frac{(X_{t-1}'X_{t-1})^{-1}x_t'x_t(X_{t-1}'X_{t-1})^{-1}}{x_t(X_{t-1}'X_{t-1})^{-1}x_t'+1}$

para $t= m+2,m+3,...T$

Claramente, el KF nos da $P_{t|t}=P_{t+1}=(X_{t}'X_{t})^{-1}$$\beta_{t|t}= \hat{\beta}_t$.

Ahora, mi pregunta es por qué, el algoritmo RLS (o el KF con invariante en el tiempo coeficientes si se prefiere), me da, muy a menudo, más estrechos intervalos de confianza de la KF con variables de tiempo de los coeficientes. Está claro thatin (8) vamos a seguir añadiendo $\Sigma_{\eta}$ que no lo hacemos en virtud de este síndrome; sin embargo, estimamos $\Sigma_{\eta}$ a través de ML (por lo que podría ser cercano a 0) y que el ruido es utilizado por la Ganancia de Kalman, de manera óptima, peso $\beta_t$ $v_t$ en (5) y (7). Mi única explicación es que el verdadero DGP ha invariante en el tiempo coeficientes o que la caminata aleatoria es un mal modelo para la ecuación de estado y por lo tanto la Ganancia de Kalman no es capaz de utilizar el ruido que $\Sigma_{\eta}$ crea para obtener estimaciones más precisas del estado. Sin embargo, no estoy totalmente convencido de que por parte de este.

En otras palabras, si el KF es la mínima varianza insesgada estimador lineal, ya que el síndrome de las piernas inquietas es un caso especial de la KF, no puede ser de varianza mínima a menos que sea sesgada o no lineal, lo que no es, ya que es la OPERACIÓN, o a menos RLS coincide con KF; si el RLS es mínima varianza, el KF debe estimar exactamente el mismo que el RLS; siempre se desvian, KF debe vencer RLS.

información adicional para responder a hejseb:

recursiva de mínimos cuadrados: ols en una expansión de la ventana, básicamente. en este papel https://link.springer.com/article/10.1007/BF01973191 , las ecuaciones (4) y (5) definir el algoritmo RLS (que es equivalente a ejecutar una regresión por MCO de tiempo de 1 hasta t y la obtención de los coeficientes para el tiempo t, entonces desde 1 hasta t+1 y la obtención de los coeficientes para el tiempo t+1, y así sucesivamente hasta que se ejecute una regresión por MCO sobre el total de la muestra de 1 hasta T).

información adicional para responder a Taylor:

En el caso de la RLS, los intervalos de confianza son, simplemente, $\hat{\beta}_t +- 1.645*sqrt(diag(\sigma^2(X_t´X_t)^{-1}))$ donde $\sigma^2=(T-m)^{-1}(\epsilon'\epsilon)$. En el caso de la KF son $\beta_{t|t}+-1.645*sqrt(diag(P_{t|t}))$, donde 1.645 es el valor crítico elegí. Por supuesto, tenemos que $diag(P_{t|t}) >diag(\sigma^2(X´_tX_t)^{-1})$. Mi pregunta es ¿por qué. Yo esperaría lo contrario. Tenga en cuenta que $\sigma^2$ es variable en el tiempo si aplico el OLS directamente (me da un diferente $\sigma$ estimación cada vez que ejecute la OPERACIÓN sobre la expansión de la ventana; sin embargo, si uso el KF con invariante en el tiempo coeficientes, puedo estimar que es $(T-m)^{-1}\sum(v_t^2/F_t)$ y hacer que sea invariante en el tiempo; si yo uso el síndrome de la pierna inquieta, solo puedo calcular los residuos al final de la recursividad y el uso de $\sigma^2=(T-m)^{-1}\epsilon'\epsilon$. Esto no lleva a ninguna de las diferencias por lo que esta no es la razón. Tenga en cuenta que en el KF con variables de tiempo de los coeficientes, $\Sigma_{\epsilon}$ es invariante en el tiempo y se estima a través de ML.

2voto

Taylor Puntos 692

Aquí están algunas notas. No responder a su pregunta de manera sucinta, pero que podría ser útil. Para ser honesto, tuve un momento difícil después de un montón de lo que estaba diciendo, por lo que al menos, esto podría ayudar a aclarar la cuestión.

Algunas anotaciones:

Vamos a modelo 1: $$ y_t = x_t\beta_t +\epsilon_t \\ \beta_{t+1}=\beta_{t}+\eta_{t} $$ con $\epsilon_t\sim N(0,\Sigma_{\epsilon})$$\eta_t\sim N(0,\Sigma_{\eta})$.

Vamos a modelo 2: $$ y_t = x_t\beta_t +\epsilon_t \\ \beta_{t+1}=\beta_{t}. $$ con $\epsilon_t\sim N(0,\Sigma_{\epsilon})$ (la misma matriz de covarianza como modelo 1).

Nota 1

Suponiendo que sus fórmulas son correctas, y suponiendo que ambos modelos comparten la observación de la matriz de covarianza, contramarcha (8) en (6) da algunas fórmulas recursivas para el filtro de covarianza. Para el primer modelo que usted consigue $$ P^1_{t|t} = f_{1,t}(P_{t-1|t-1}) $$ decir, y para el segundo modelo que usted consigue $$ P^2_{t|t} = f_{2,t}(P^2_{t-1|t-1}). $$ Usted sería capaz de utilizar la función de composición para mostrar si $P^2_{t|t} < P^1_{t|t}$. Usted probablemente tendrá que asumir, además, que ambos modelos comparten la misma inicial estado en tiempo de "predicción" de la distribución (o antes si te gustaría). Si $f_{2,t}$ siempre "aumenta" su última matriz por menos de $f_{1,t}$, a continuación, utilizando el razonamiento inductivo obtendrá el resultado deseado.

A mí esto me parece intuitivo de la razón por la que usted ha mencionado: "...claro thatin[sic] (8) vamos a seguir añadiendo $\Sigma_{\eta}$ que no lo hacemos en virtud de RLS," sin embargo, yo no he enseñado. Podríamos estar equivocados.

Nota 2:

También mencionó que no estás seguro de qué modelo es el verdadero modelo. Esta debe ser una preocupación más grande de escoger el modelo que produce la contracción de los intervalos de confianza. Sin embargo, este no es tu pregunta, así que no voy a decir nada más.

Nota 3:

Otra cosa: todo esto podría ser falso sin asumir que comparten la misma observación de la matriz de covarianza. Sospecho que la observación empírica no siempre ser verdad, después de ejecutar Filtros Kalman (para obtener el filtrado de las distribuciones), con parámetros estimados enchufado. No he demostrado esto, sin embargo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X