10 votos

¿Podemos comparar las correlaciones entre grupos comparando las pendientes de regresión?

En esta pregunta preguntan cómo comparar Pearson r para dos grupos independientes (como hombres contra mujeres). La respuesta y los comentarios sugirieron dos maneras:

  1. Utiliza la conocida fórmula de Fisher usando la "transformación z" de r;
  2. Utilizar la comparación de las pendientes (coeficientes de regresión).

Esto último podría realizarse fácilmente sólo a través de un modelo lineal saturado: $Y = a + bX + cG + dXG$ donde $X$ y $Y$ son las variables correlacionadas y $G$ es una variable ficticia (0 vs 1) que indica los dos grupos. La magnitud de $d$ (el término de interacción coeficiente) es exactamente la diferencia de coeficiente $b$ después del modelo $Y = a + bX$ que se realizan en dos grupos de forma individual, y su ( $d$ s) la importancia es, por lo tanto, la prueba de la diferencia de pendiente entre los grupos.

Ahora, la pendiente o el arrecife de regresión no es todavía un arrecife de correlación. Pero si estandarizamos $X$ y $Y$ - por separado en dos grupos - entonces $d$ será igual a la diferencia r en el grupo 1 menos r en el grupo 0 y por lo tanto su significado será probar la diferencia entre las dos correlaciones: estamos probando pendientes pero parece [como si - ?] estamos probando correlaciones.

¿Esto es lo que he escrito correctamente?

Si es así, queda la pregunta de cuál es la mejor prueba de correlación, ¿ésta descrita o la de Fisher? Porque no darán resultados idénticos. ¿Qué opina usted?

Más tarde, editar: Gracias @Wolfgang por su respuesta siento, sin embargo, que echo de menos la comprensión por qué La prueba de Fisher es más correcta una prueba para r que el enfoque de comparación de pendiente-bajo-normalización descrito anteriormente. Por lo tanto, más respuestas son bienvenidas. Gracias.

10voto

Derek Swingley Puntos 3851

Todo lo que has escrito es correcto. Siempre puedes probar cosas como esa con un ejemplo de juguete. Aquí hay un ejemplo con R:

library(MASS)

rho <- .5  ### the true correlation in both groups

S1 <- matrix(c( 1,   rho,   rho, 1), nrow=2)
S2 <- matrix(c(16, 4*rho, 4*rho, 1), nrow=2)

cov2cor(S1)
cov2cor(S2)

xy1 <- mvrnorm(1000, mu=c(0,0), Sigma=S1)
xy2 <- mvrnorm(1000, mu=c(0,0), Sigma=S2)

x <- c(xy1[,1], xy2[,1])
y <- c(xy1[,2], xy2[,2])
group <- c(rep(0, 1000), rep(1, 1000))

summary(lm(y ~ x + group + x:group))

La interacción es altamente significativa, aunque la verdadera correlación es la misma en ambos grupos. ¿Por qué sucede esto? Porque los coeficientes de regresión bruta en los dos grupos reflejan no sólo la fuerza de la correlación, sino también la escala de X (e Y) en los dos grupos. Dado que esas escalas difieren, la interacción es significativa. Este es un punto importante, ya que a menudo se cree que para probar la diferencia en la correlación, sólo hay que probar la interacción en el modelo anterior. Continuemos:

summary(lm(xy2[,2] ~ xy2[,1]))$coef[2] - summary(lm(xy1[,2] ~ xy1[,1]))$coef[2]

Esto le mostrará que la diferencia en los coeficientes de regresión para el modelo ajustado por separado en los dos grupos le dará exactamente el mismo valor que el término de interacción.

Sin embargo, lo que realmente nos interesa es la diferencia en las correlaciones:

cor(xy1)[1,2]
cor(xy2)[1,2]
cor(xy2)[1,2] - cor(xy1)[1,2]

Encontrará que esta diferencia es esencialmente cero. Vamos a estandarizar X e Y dentro de los dos grupos y reajustar el modelo completo:

x <- c(scale(xy1[,1]), scale(xy2[,1]))
y <- c(scale(xy1[,2]), scale(xy2[,2]))
summary(lm(y ~ x + x:group - 1))

Tenga en cuenta que no estoy incluyendo la intercepción o el efecto principal del grupo aquí, porque son cero por definición. Encontrará que el coeficiente para x es igual a la correlación para el grupo 1 y el coeficiente para la interacción es igual a la diferencia de las correlaciones para los dos grupos.

Ahora, para su pregunta si sería mejor usar este enfoque en vez de usar la prueba que hace uso de la transformación r-to-z de Fisher.

EDITAR

Los errores estándar de los coeficientes de regresión que se calculan al normalizar los valores X e Y dentro de los grupos no tienen en cuenta esta normalización. Por lo tanto, no son correctos. Por consiguiente, la prueba t de la interacción no controla adecuadamente la tasa de error de tipo I. He realizado un estudio de simulación para examinar esto. Cuando $ \rho_1 = \rho_2 = 0$ entonces el error de tipo I es controlado. Sin embargo, cuando $ \rho_1 = \rho_2 \ne 0$ entonces el error de tipo I de la prueba t tiende a ser demasiado conservador (es decir, no rechaza con suficiente frecuencia para un determinado $ \alpha $ valor). Por otro lado, la prueba que utiliza la transformación r-to-z de Fisher funciona adecuadamente, independientemente del tamaño de las verdaderas correlaciones en ambos grupos (excepto cuando los tamaños de los grupos son muy pequeños y las verdaderas correlaciones en los dos grupos se acercan mucho a $ \pm1 $ .

Conclusión: Si quieres probar una diferencia en las correlaciones, usa la transformación r-to-z de Fisher y prueba la diferencia entre esos valores.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X