7 votos

¿Cuál es el valor esperado de la varianza de la muestra en una regresión lineal con variables omitidas de un proceso AR(2)?

Últimamente, he estado interesado en los fenómenos relacionados con la omisión de variables. Por ejemplo, se puede demostrar que el valor esperado de la varianza de la muestra bajo la inclusión de una variable x1x1, pero la omisión de una variable x2x2 E(s2|x1,x2)=σ2+σ2n1RSSx1,β2x2 donde β2 es el verdadero coeficiente de x2 RSSx1,β2x2 es la suma de cuadrados residual cuando se ejecuta una regresión con x1 como predictor y β2x2 como resultado. Ahora, estoy interesado en conseguir una mejor expresión de esto cuando tenemos una AR(2) proceso.

Supongamos que un AR(2)-proceso de ser dado por xt=axt1+bxt2+ϵt (ϵi ser independiente y normal con desviación estándar σ).

Si corremos una regresión con (x2,,xT) como la respuesta de vectores y (x1,,xT1) como la predicción de la variable, ¿qué se puede decir acerca de la suma de cuadrados residual? Es decir, si nosotros (falsamente) piensa que el proceso es una AR(1)-proceso, ¿qué puede decirse acerca de la esperada suma residual de los cuadrados?

Ya que soy bastante inculta en las estadísticas (mi única formación académica en matemáticas), yo estaría interesado en la bibliografía (libros y artículos), así como respuestas, incluso si son sólo tangencialmente relacionados con esta cuestión.

1voto

Mike Moore Puntos 641

Buen libro introductorio sobre el tema relacionado con los diferentes aspectos de los modelos de serie de tiempo podría ser la Introducción a Series de Tiempo y Previsión por Brockwell y Davis entre muchos otros. A grandes rasgos, las características del proceso autorregresivo de orden p está vinculado a la función de autocorrelación parcial. La estimación de la AR(p) proceso de: Xt=pj=1ϕjXtj+εt

una solución común es aplicar el Durbin-Levinson (wiki sobre las matemáticas de la recursión de Levinson) método, donde la suma residual de los cuadrados de AR(p)

RSSp=Eε2=E(Xtpj=1ϕjXtj)2

está vinculado a la RSSp1 como:

RSSp=RSSp1(1φ2pp),

con φpp siendo las autocorrelaciones parciales o el último componente de

Γ1pγp=([γ(ij)]pi,j=1)1[γ(1),γ(2),,γ(p)],

y γ(.) función de autocorrelación. Por lo tanto si se aplica mal el fin de autorregresión le costará a usted en la teoría de la (1φ2pp)), tenga en cuenta que, en la práctica, la estimación de error también añade aquí. En muestras pequeñas puede ocurrir que un modelo más pequeño (AR(1)) es un mejor predictor que el verdadero modelo de AR(2) (como los parámetros a ser estimados, y no se sabe!). Esto también se conoce como la parsimonia de la propiedad de un modelo más pequeño.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X