Lo ilustraré para modelos con uno y dos regresores, la generalización a cuatro variables debería ser obvia.
library(lmtest)
y <- rnorm(100)
x1 <- rnorm(100)
x2 <- rnorm(100)
reg1 <- lm(y~x1)
reg2 <- lm(y~x1+x2)
waldtest(reg1,reg2)
Por lo tanto, cargue el lmtest
(las tres líneas siguientes sólo crean algunos datos de ejemplo), ejecute la regesión restringida reg1
la no restringida reg2
y que waldtest
hacer la comparación por ti.
Para mis números aleatorios, obtengo la siguiente salida:
Wald test
Model 1: y ~ x1
Model 2: y ~ x1 + x2
Res.Df Df F Pr(>F)
1 98
2 97 1 0.0178 0.8942
Por lo tanto, el nulo que $\beta_2=0$ no puede ser rechazado en $\alpha=0.05$ como el $p$ -valor Pr(>F)
es mucho mayor. Esto no es sorprendente teniendo en cuenta cómo he generado los datos: no hay relación entre el x
y y
.