Como se señaló antes en este y otros hilos: (1) El de Durbin-Watson prueba no es concluyente. Sólo los límites sugerido inicialmente por Durbin y Watson fueron a causa de la distribución exacta depende de la observó regresor de la matriz. Sin embargo, esto es bastante fácil para la dirección de estadística/econométrico de software por ahora. (2) No son generalizaciones de los Durbin-Watson prueba para mayores rezagos. Así que ni inconclusión. ni la limitación de los gal es un argumento en contra de la Durbin-Watson prueba.
En comparación con la prueba de Wald de los rezagados de la variable dependiente, el de Durbin-Watson prueba puede tener mayor poder en algunos modelos. Específicamente, si el modelo contiene determinista tendencias o patrones estacionales, puede ser mejor para la prueba de autocorrelación en los residuos (como el de Durbin-Watson prueba) en comparación a la respuesta retardada (que aún no está ajustado para el determinista de los patrones). Puedo incluir un pequeño R de la simulación a continuación.
Un inconveniente muy importante de la Durbin-Watson prueba es que no se debe aplicar a los modelos que ya contienen autorregresivos efectos. Por lo tanto, no se puede comprobar residual después de autocorrelación parcial plasmándolo en un modelo autorregresivo. En ese escenario, el poder de la Durbin-Watson prueba puede romper por completo, mientras que para el Breusch-Godfrey de prueba, por ejemplo, no. Nuestro libro "la Econometría Aplicada con R" tiene un pequeño estudio de simulación que muestra esto en el capítulo "Programación de Sus Propios Análisis", ver http://eeecon.uibk.ac.at/~zeileis/docencia/AER/.
Para un conjunto de datos con el trend plus autocorrelated errores de la alimentación de los Durbin-Watson prueba es superior a la de Breusch-Godfrey de la prueba, sin embargo, y también superior a la de la prueba de Wald de autorregresivos efecto. Puedo ilustrar esto por un simple pequeño escenario en el R. yo dibuje 50 observaciones a partir de un modelo y calcular los valores de p para las tres pruebas:
pvals <- function()
{
## data with trend and autocorrelated error term
d <- data.frame(
x = 1:50,
err = filter(rnorm(50), 0.25, method = "recursive")
)
## response and corresponding lags
d$y <- 1 + 1 * d$x + d$err
d$ylag <- c(NA, d$y[-50])
## OLS regressions with/without lags
m <- lm(y ~ x, data = d)
mlag <- lm(y ~ x + ylag, data = d)
## p-value from Durbin-Watson and Breusch-Godfrey tests
## and the Wald test of the lag coefficient
c(
"DW" = dwtest(m)$p.value,
"BG" = bgtest(m)$p.value,
"Coef-Wald" = coeftest(mlag)[3, 4]
)
}
A continuación, podemos simular 1000 p-valores para los tres modelos:
set.seed(1)
p <- t(replicate(1000, pvals()))
El Durbin-Watson prueba conduce a la mínima media de los valores de p
colMeans(p)
## DW BG Coef-Wald
## 0.1220556 0.2812628 0.2892220
y el más alto poder de un 5% de nivel de significación:
colMeans(p < 0.05)
## DW BG Coef-Wald
## 0.493 0.256 0.248