En una regresión lineal múltiple, ¿por qué es posible tener un estadístico F altamente significativo (p<.001) pero tener valores p muy altos en todas las pruebas t de los regresores?
En mi modelo, hay 10 regresores. Uno de ellos tiene un valor p de 0,1 y el resto supera el 0,9
Para tratar este problema, véase el pregunta de seguimiento .
2 votos
¿La constante también es insignificante? ¿Cuántos casos hay? ¿Cuántas variables?
0 votos
¿Cómo se diagnostica la multicolinealidad? Hay muchos métodos, algunos son más informativos que otros. Cuanto más nos diga, mejor podrá responder la comunidad.
5 votos
Esta pregunta se ha convertido en una FAQ. Algunas de las respuestas aquí fueron fusionadas de hilos sustancialmente similares.
3 votos
Véase también aquí: ¿cómo puede una regresión ser significativa y que todos los predictores no sean significativos? y para un debate sobre el caso contrario, véase aquí: prueba t significativa frente a estadístico F no significativo .
0 votos
Tuve el mismo problema y ninguna de las respuestas anteriores pudo ayudarme. Ahora sé la respuesta (al menos a mi problema): el valor F del modelo 2 puede ser significativo, porque tienes la misma 'constante' (variable) que en el modelo 1 (cuyo valor F también es significativo). Tienes que mirar la tabla llamada 'Resumen del modelo' en la columna 'Sig. F Change' para ver si el cambio en R cuadrado es significativo (para el modelo 2). Si éste es significativo, los valores b también deberían serlo. Puede ignorar totalmente el valor F.
1 votos
Aunque las tres respuestas dicen "multicolinealidad", en realidad se trata de una circunstancia especial. El punto de usar una prueba F en primer lugar es que los valores p individuales para un grupo de regresores pueden dar información contradictoria sobre la importancia del grupo en su conjunto. Véase los hilos relacionados a los que enlaza @gung.