Terminología y resumen
En el contexto de la regresión múltiple:
- un efecto de moderador es simplemente una interacción entre dos predictores, típicamente creada multiplicando los dos predictores juntos, a menudo después de centrar los predictores.
- una covariable es simplemente un predictor que no se utilizó en la formación del moderador y que se conceptualiza como algo que necesita ser controlado.
Por lo tanto, deberías poder realizar una regresión jerárquica con moderadores y covariables en casi cualquier software estadístico que admita la regresión múltiple.
Enfoque típico para probar el efecto del moderador después de controlar por covariables
- SPSS: Si estás realizando la regresión jerárquica en SPSS, probablemente ingresarías los predictores en bloques. Aquí tienes un tutorial.
- R: Si estás haciendo esto en R, probablemente definirías modelos lineales separados
lm
cada uno añadiendo predictores adicionales y usarías anova
para comparar los modelos. Aquí tienes un tutorial.
Una vez que entiendas la regresión jerárquica en tu herramienta elegida, una receta simple sería la siguiente. Vamos a suponer que tienes las siguientes variables
- predictores de efecto principal:
IV1
IV2
- efecto de interacción: multiplicación de
IV1
y IV2
- covariables
CV1
CV2
En algunos casos es posible que necesites crear el moderador
- Si estás utilizando SPSS, necesitarás multiplicar juntos las dos variables predictoras (por ejemplo,
compute iv1byiv2 = iv1 * iv2.
). Si deseas interpretar los coeficientes de regresión, puede ser útil centrar iv1
y iv2
antes de crear el término de interacción.
- Si estás utilizando R, simplemente puedes usar la notación
iv1*iv2
en la notación del modelo lineal.
Luego puedes estimar los modelos
- Bloque/modelo 1: Ingresar covariables
m1 <- lm(DV~CV1+CV2)
- Bloque/modelo 2: Ingresar predictores de efecto principal
m2 <- lm(DV~CV1+CV2+IV1+IV2)
- Bloque/modelo 3: Ingresar efecto de interacción
m3 <- lm(DV~CV1+CV2+IV1*IV2)
Luego puedes interpretar la significancia del cambio en el cuadrado R entre el bloque 2 y 3 como una prueba de si hay un efecto de interacción: anova(m2, m3)
Análisis de pendientes simples
Si deseas realizar un análisis de pendientes simples, puedes tomar la fórmula de regresión proporcionada por la regresión múltiple final y calcular algunos valores apropiados para graficar.
Puedes hacer esto manualmente o puedes usar predict
en R. Por ejemplo, podrías calcular los valores predichos por la ecuación de regresión usando los siguientes valores
IV1 IV2 CV1 CV2
-2sd -2sd media media
-2sd +2sd media media
+2sd -2sd media media
+2sd +2sd media media
Luego puedes graficar estos valores usando la herramienta de graficación que prefieras (por ejemplo, R, SPSS, Excel).
Personalmente, encuentro que los Gráficos Condicionales son una mejor opción que el análisis de pendientes simples. R tiene la función coplot
. La idea es mostrar un gráfico de dispersión de la relación entre la IV y la DV en un conjunto de gráficos de dispersión organizados definidos por rangos del moderador. Cuando busqué, encontré un ejemplo de usar gráficos condicionales para la regresión del moderador en la página 585 del Manual de Métodos de Investigación en Psicología de la Personalidad