10 votos

¿Variables independientes con baja correlación con la variable dependiente puede ser predictores significativos?

Tengo ocho variables independientes y una dependiente. He corrido una matriz de correlación, y 5 de ellos tienen una baja correlación con la DV. Tengo, a continuación, ejecutar una regresión múltiple para ver si alguno o todos los IVs puede predecir el DV. La regresión muestran que sólo dos IVs puede predecir el DV (sólo puede dar cuenta de alrededor del 20% de la varianza), y SPSS quitado el resto de la modelo. Mi supervisor reconoce que no he de ejecutar la regresión correctamente, ya que debido a la fuerza de las correlaciones, debería haber encontrado más predictores en el modelo de regresión. Pero las correlaciones eran pequeños, así que mi pregunta es: si IVs y el DV apenas se correlacionan, puede IVs todavía ser buenos predictores de la DV?

29voto

RobW Puntos 1798

Con una matriz de correlación, que se examinan incondicional (crudo) las asociaciones entre las variables. Con un modelo de regresión, que son el examen de la articulación de las asociaciones de su IVs con su DVs, así mirando condicional asociaciones (para cada IV, su asociación con el DV condicional en el otro IVs). Dependiendo de la estructura de los datos, estos dos se pueden producir muy diferentes, incluso contrarias resultados.

5voto

Eero Puntos 1612

Casualmente acabo de mirar un ejemplo que me había creado anteriormente para mostrar conceptos similares (en realidad para mostrar uno de los problemas de regresión stepwise). Aquí es R código para crear y analizar un conjunto de datos simulados:

set.seed(1)
x1 <- rnorm(25)
x2 <- rnorm(25, x1)
y <- x1-x2 + rnorm(25)
pairs( cbind(y,x1,x2) )    # Relevant results of each following line appear below...
cor( cbind(y,x1,x2) )      # rx1y  =   .08      rx2y = -.26      rx1x2 = .79
summary(lm(y~x1))          # t(23) =   .39         p = .70
summary(lm(y~x2))          # t(23) = -1.28         p = .21
summary(lm(y~x1+x2))       # t(22) =  2.54, -2.88  p = .02, .01 (for x1 & x2, respectively)

Las correlaciones y regresiones lineales simples show low (no estadísticamente significativa) de las relaciones entre el $y$ y cada una de las $x$ variables. Pero $y$ se define como una función tanto de $x$s, y el de regresión múltiple muestra tanto como predictores significativos.

4voto

Nick Cox Puntos 22819

Su pregunta podría ser más fácil de responder si pudiéramos ver cuantitativa detalle de su salida del software y lo ideal es tener una visión de los datos.

¿Qué es la "baja correlación", en particular? ¿Qué nivel de importancia estás usando? Hay incorporado en las relaciones entre los predictores que de resultados en SPSS quitando algunas?

Tenga en cuenta que nosotros no tienen capacidad para juzgar si usted utiliza el mejor o el más sintaxis apropiada para su propósito, ya que no indican exactamente lo que hizo.

En términos generales, las bajas correlaciones entre los predictores y los resultados implican que la regresión puede ser decepcionante en mucho la misma manera que usted necesita de chocolate para hacer pastel de chocolate. Nos dan más detalles, y usted debe obtener una mejor respuesta.

También en términos generales, la decepción de su supervisor no implica que usted no hizo lo correcto. Si su supervisor sabe menos de las estadísticas de lo que usted hace, usted necesita para buscar asesoramiento y apoyo de otras personas en su institución.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X