Últimamente, he estado interesado en los fenómenos relacionados con la omisión de variables. Por ejemplo, se puede demostrar que el valor esperado de la varianza de la muestra bajo la inclusión de una variable x1x1, pero la omisión de una variable x2x2 E(s2|x1,x2)=σ2+σ2n−1RSSx1,β2x2 donde β2 es el verdadero coeficiente de x2 RSSx1,β2x2 es la suma de cuadrados residual cuando se ejecuta una regresión con x1 como predictor y β2x2 como resultado. Ahora, estoy interesado en conseguir una mejor expresión de esto cuando tenemos una AR(2) proceso.
Supongamos que un AR(2)-proceso de ser dado por xt=axt−1+bxt−2+ϵt (ϵi ser independiente y normal con desviación estándar σ).
Si corremos una regresión con (x2,…,xT) como la respuesta de vectores y (x1,…,xT−1) como la predicción de la variable, ¿qué se puede decir acerca de la suma de cuadrados residual? Es decir, si nosotros (falsamente) piensa que el proceso es una AR(1)-proceso, ¿qué puede decirse acerca de la esperada suma residual de los cuadrados?
Ya que soy bastante inculta en las estadísticas (mi única formación académica en matemáticas), yo estaría interesado en la bibliografía (libros y artículos), así como respuestas, incluso si son sólo tangencialmente relacionados con esta cuestión.