28 votos

Regresión vs ANOVA discrepancia

Yo siempre estaba bajo la impresión de que la regresión es sólo una más general de la forma de ANOVA y que los resultados serían idénticos. Recientemente, sin embargo, he corrido tanto una regresión y un análisis de VARIANZA de los datos y de los resultados difieren significativamente. Es decir, en el modelo de regresión tanto los efectos principales y la interacción son significativos, mientras que en el ANOVA de un efecto principal no es significativo. Espero que esto tiene algo que ver con la interacción, pero no es claro para mí lo que es diferente acerca de estas dos formas de modelar la misma pregunta. Si es importante, un predictor es categórica y el otro es continuo, como se indica en la simulación a continuación. Cualquier ayuda se agradece. Gracias!

Aquí está un ejemplo de lo que mis datos y lo que los análisis que estoy corriendo, pero sin el mismo p-valores o efectos significativos en los resultados (mis resultados reales se indica más arriba):

group<-c(1,1,1,0,0,0)
moderator<-c(1,2,3,4,5,6)
score<-c(6,3,8,5,7,4)

summary(lm(score~group*moderator))
summary(aov(score~group*moderator))

25voto

Sean Hanley Puntos 2428

El summary llamadas de función de diferentes métodos, dependiendo de la clase del objeto. La diferencia no está en la aov vs lm, pero en la información presentada acerca de los modelos. Por ejemplo, si usted usa anova(mod1) y anova(mod2) en su lugar, usted debe obtener los mismos resultados.

Como @Glen dice, la clave es si las pruebas reportadas se basan en el Tipo 1 o Tipo 3 las sumas de cuadrados. Estos serán diferentes cuando la correlación entre sus variables explicativas no es exactamente 0. Cuando están correlacionadas, algunas de las SS son únicos para cada predictor y los unos a los otros, pero algunos SS podría atribuirse a uno o a ambos. (Usted puede visualizar esta imaginando la MasterCard símbolo--hay una pequeña región de la superposición en el centro.) No existe una única respuesta en esta situación, y por desgracia, esta es la norma para datos no experimentales. Uno de los enfoques para el analista para usar su juicio y asignar la superposición de las SS a una de las variables. Variable que se va en el primer modelo. La otra variable entra en el modelo de segundo y se pone a la SS que se parece a una cookie con una mordedura tomada fuera de él. Su efecto puede ser probado por lo que a veces se llama $R^2$ o de cambio de F cambio. Este enfoque utiliza el Tipo 1 SS. Alternativamente, usted puede hacer esto dos veces con cada uno va en primera, y el informe de la F cambio de prueba para ambos predictores. De esta manera, ni la variable se vuelve a la SS, debido a la superposición. Este enfoque utiliza el Tipo 3 SS. (Debo decir también que el último enfoque se mantiene en baja respecto.)

Siguiendo la sugerencia de @BrettMagill en el comentario de abajo, puedo tratar de hacer de esto un poco más claro. (Tenga en cuenta que, en mi ejemplo, yo estoy usando solo 2 predictores y no hay interacción, pero esta idea puede ampliarse para incluir lo que quieras.)

Tipo 1: SS(A) y SS(B|A)

Tipo 3: SS(A|B) y SS(B|A)

13voto

Funkatron Puntos 757

Los resultados de la aov de salida están dando probabilidades basado en el Tipo 1 suma de cuadrados. Esta es la razón por la interacción resultado es el mismo y los principales efectos son diferentes.

Si el uso de probabilidades basado en el Tipo 3 de la suma de los cuadrados, a continuación, se van a coincidir con los resultados de la regresión lineal.

library(car)
Anova(aov(score~group*moderator),type=3)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X