4 votos

¿Cómo puedo crear un predictor de una serie de tiempo una vez que ' ve confirmado causalidad de Granger?

Tengo un conjunto de datos de series temporales que he encontrado granger-causalidad (es decir, regresó Y vs X X-1, Y-1), y pregunto ¿cómo puedo crear un predictor de este modelo lineal? ¿Es simplemente los coeficientes de que recupero de mi modelo? (Estoy intentando este código mediante programación y aún soy un novato de las estadísticas, así que si esto es obvio, perdóname)

2voto

Mike Moore Puntos 641

De causalidad de Granger de la prueba fue inventado para probar estadísticamente que la variable $x_t$ considerablemente el sonido de la información que ayuda a predecir $y_t$. Sin embargo, si $y_t$ es potencialmente vinculados con algunas otras variables de $x_t$ (ambos son parte de un vector, que puede ser modelado por la autorregresión vectorial) el plan de pruebas se convierte en un poco más complicado (se refiere a algunos de la matriz de manipulaciones). Tenga en cuenta también que dado que la prueba de causalidad de Granger involucra $F$-prueba final en la etapa final que es sensible a las desviaciones de la normalidad de la asunción (usted puede, a continuación, considere algunas de las extensiones de la wiki en el enlace de arriba).


Para hacer un modelo predictivo que tiene que elegir el horizonte (denota por $h$) hasta el que se desea predecir. Su completa modelo predictivo es entonces:

$$y_t = \alpha_0 +\alpha_1 y_{t-1} + \dots + \alpha_p y_{t-p} + \beta_1 x_{t-1} + \dots + \beta_p x_{t-p} + \varepsilon_t, $$

secuencial predicciones (tenga en cuenta que secuencial caso de tener que realizar un modelo predictivo para $x_t$), y en directo $h$ paso por delante de caso:

$$y_t = \alpha_0 +\alpha_1 y_{t-h} + \dots + \alpha_p y_{t-h-p+1} + \beta_1 x_{t-h} + \dots + \beta_p x_{t-h-p+1} + \varepsilon_t, $$

a continuación, el $h$ paso de predicción después de la estimación y la prueba de Granger-(no)causalidad ($H_0: \beta_1 = ... = \beta_p = 0$) en directo caso:

$$ y_{T+h}^{(h)} = \hat\alpha_0 +\hat\alpha_1 y_{T} + \dots + \hat\alpha_p y_{T-p+1} + \hat\beta_1 x_{T} + \dots + \hat\beta_p x_{T-p+1} $$

y en secuencial:

$$ y_{T+1}^{(1)} = \hat\alpha_0 +\hat\alpha_1 y_{T} + \dots + \hat\alpha_p y_{T-p+1} + \hat\beta_1 x_{T} + \dots + \hat\beta_p x_{T-p+1}, $$

$$ y_{T+2}^{(2)} = \hat\alpha_0 +\hat\alpha_1 y^{(1)}_{T+1} + \dots + \hat\alpha_p y_{T-p} + \hat\beta_1 x^{(1)}_{T+1} + \dots + \hat\beta_p x_{T-p}, \dots $$

Por lo tanto , estimación, pruebas de paso se separa de la predicción de paso que para modelos lineales, es sencillo. Todo este esquema es fácilmente implementable en $R$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X