7 votos

En un modelo de regresión lineal múltiple, ¿cómo pruebo la hipótesis nula de que varios coeficientes son iguales a cero simultáneamente?

Por ejemplo, si tengo Y = b0 + b1X1 + b2X2 + b3X3 + b4X4 Quiero probar H0: b1 = b3 = 0, con alfa = 0,05.

He realizado una lm en R y obtuve los valores p para cada coeficiente y el estadístico F general, pero no estoy seguro de qué hacer para probarlos simultáneamente.

5voto

Sean Hanley Puntos 2428

En tu caso, quieres saber si los coeficientes son iguales a $0$ . Un modelo en el que los coeficientes son $0$ es el mismo que un modelo que no incluye esas variables. Por lo tanto, puede realizar una prueba de modelo anidado de un modelo reducido sin esas variables frente a un modelo completo que incluya todas las variables.

En el contexto de un modelo lineal, eso se llama $F$ -prueba de cambio, o $R^2$ -porque se puede calcular el valor de la prueba a partir del $F$ (o $R^2$ ) de los dos modelos (también se denomina a veces "parcial múltiple"). $F$ y por una docena de otros nombres). Aquí muestro una versión de la fórmula: Pruebas de moderación con moderadores continuos y categóricos . En un contexto no lineal (por ejemplo, un modelo de regresión logística), se puede utilizar una prueba de razón de verosimilitud. De forma más general, la prueba de múltiples parámetros al mismo tiempo se denomina prueba simultánea o prueba de trozos.

Concretamente, para hacer esto en R harías algo como:

m.full    = lm(Y~X1+X2+X3+X4)
m.reduced = lm(Y~X2+X4)
anova(m.reduced, m.full)

2voto

Christoph Hanck Puntos 4143

Lo ilustraré para modelos con uno y dos regresores, la generalización a cuatro variables debería ser obvia.

library(lmtest)
y <- rnorm(100)
x1 <- rnorm(100)
x2 <- rnorm(100)

reg1 <- lm(y~x1)
reg2 <- lm(y~x1+x2)
waldtest(reg1,reg2)

Por lo tanto, cargue el lmtest (las tres líneas siguientes sólo crean algunos datos de ejemplo), ejecute la regesión restringida reg1 la no restringida reg2 y que waldtest hacer la comparación por ti.

Para mis números aleatorios, obtengo la siguiente salida:

Wald test

Model 1: y ~ x1
Model 2: y ~ x1 + x2
  Res.Df Df      F Pr(>F)
1     98                 
2     97  1 0.0178 0.8942

Por lo tanto, el nulo que $\beta_2=0$ no puede ser rechazado en $\alpha=0.05$ como el $p$ -valor Pr(>F) es mucho mayor. Esto no es sorprendente teniendo en cuenta cómo he generado los datos: no hay relación entre el x y y .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X