Con el fin de examinar simple pistas de diferentes niveles de una de las variables continuas, usted puede simplemente centro de la otra variable continua para centrarse en la pendiente de interés. En un modelo con una continua interacción continua, como así: $$y = \beta_0 + \beta_1x_1 + \beta_2x_2 + \beta_3x_1*x_2$$ the two single predictor coefficients ($\beta_1$ and $\beta_2$) son simples pistas para el predictor cuando el otro predictor (sin embargo es centrado) es igual a 0.
Por lo tanto, si ejecuto el código de la práctica anterior, obtengo el siguiente resultado:
Call:
lm(formula = y1 ~ x1 * x2)
Residuals:
Min 1Q Median 3Q Max
-281.996 -70.148 -3.702 70.190 209.182
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 17.7519 10.8121 1.642 0.104
x1 1.4175 1.0151 1.397 0.166
x2 0.8222 1.0614 0.775 0.440
x1:x2 0.8911 0.1295 6.882 6.04e-10 ***
---
Signif. codes: 0 ‘***' 0.001 ‘**' 0.01 ‘*' 0.05 ‘.' 0.1 ‘ ' 1
Residual standard error: 100.6 on 96 degrees of freedom
Multiple R-squared: 0.4283, Adjusted R-squared: 0.4105
F-statistic: 23.98 on 3 and 96 DF, p-value: 1.15e-11
El x1 salida nos da la prueba de que el x1 pendiente en x2 = 0. De este modo obtenemos una pendiente, error estándar, y (como un bono) la prueba de que la estimación del parámetro en comparación con 0. Si queremos conseguir el simple pendiente de x1 (y el error estándar y sig. de prueba) cuando x2 = 6, utilizamos simplemente una transformación lineal para hacer que un valor de 6 en x2 en el punto 0:
x2.6<- x2-6
Viendo las estadísticas de resumen, podemos ver que esta es la misma variable como antes, pero se ha desplazado hacia abajo en el número de línea por 6 unidades:
summary(x2)
summary(x2.6)
> summary(x2)
Min. 1st Qu. Median Mean 3rd Qu. Max.
-31.0400 -5.9520 1.3430 0.8396 8.0090 22.3800
> summary(x2.6)
Min. 1st Qu. Median Mean 3rd Qu. Max.
-37.040 -11.950 -4.657 -5.160 2.009 16.380
Ahora, si queremos volver a ejecutar el mismo modelo, pero el sustituto de x2 para nuestros nuevos centrado en la variable x2.6, obtenemos esto:
model1.6<- lm(y1~x1*x2.6)
summary(model1.6)
Call:
lm(formula = y1 ~ x1 * x2.6)
Residuals:
Min 1Q Median 3Q Max
-281.996 -70.148 -3.702 70.190 209.182
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 22.6853 12.6384 1.795 0.0758 .
x1 6.7639 1.2346 5.479 3.44e-07 ***
x2.6 0.8222 1.0614 0.775 0.4404
x1:x2.6 0.8911 0.1295 6.882 6.04e-10 ***
---
Signif. codes: 0 ‘***' 0.001 ‘**' 0.01 ‘*' 0.05 ‘.' 0.1 ‘ ' 1
Residual standard error: 100.6 on 96 degrees of freedom
Multiple R-squared: 0.4283, Adjusted R-squared: 0.4105
F-statistic: 23.98 on 3 and 96 DF, p-value: 1.15e-11
Si comparamos este resultado a la edad de salida, podemos ver que el omnibus F todavía está 23.98, la interacción t es todavía 6.882 y la pendiente para x2.6 es todavía .822 (y no significativo). Sin embargo, nuestro coeficiente de x1 es ahora mucho más amplio y significativo. Esta pendiente es ahora el simple pendiente de cuando x1 x2 es igual a 6 (o cuando x2.6 = 0). Centrando por diferentes variables, podemos probar diferentes efectos simples (y obtener pistas y errores estándar) sin mucho trabajo. Mediante el uso de un (temida en la comunidad de investigación) bucle for para recorrer la lista, podemos probar diferentes efectos simples de forma eficiente:
centeringValues<- c(1,2,3,4,5,6) # Creating a vector of values to center around
for(i in 1:length(centeringValues)){ #Making a for loop that iterates through the list
x<- x2-i # Creating a predictor that is the newly centered variable
print(paste0('x.',centeringValues[i])) # printing x.centering value so you can keep track of output
print(summary(lm(y1~x1*x))[4]) # printing coefficients for the model with the center variable
}
Este código crea primero un vector de valores que usted quiere convertirse en el punto 0 de la variable que no quiere que la pendiente (en este ejemplo, x2). A continuación, cree un bucle que itera a través de las posiciones en esta lista (es decir, si la lista tiene 3 elementos, el bucle for se repite a través de los valores de 1 a 3). A continuación, cree una nueva variable que es el centrado en la versión de la variable para la cual usted no desea centrado en laderas (en este caso estamos interesados en simples pistas para x1, así que el centro de x2). Por último, la impresión de los coeficientes del modelo que incluye su recién centrado en la variable en lugar de la materia prima variable. Esto se traduce en la siguiente salida:
[1] "x.1"
$coefficients
Estimate Std. Error t value Pr(>|t|)
(Intercept) 18.5741364 10.8815154 1.7069439 9.106513e-02
x1 2.3085985 1.0143100 2.2760286 2.506664e-02
x 0.8222252 1.0613590 0.7746909 4.404262e-01
x1:x 0.8910530 0.1294695 6.8823366 6.041102e-10
[1] "x.2"
$coefficients
Estimate Std. Error t value Pr(>|t|)
(Intercept) 19.3963616 11.0528627 1.7548722 8.247158e-02
x1 3.1996515 1.0299723 3.1065415 2.489385e-03
x 0.8222252 1.0613590 0.7746909 4.404262e-01
x1:x 0.8910530 0.1294695 6.8823366 6.041102e-10
[1] "x.3"
$coefficients
Estimate Std. Error t value Pr(>|t|)
(Intercept) 20.2185867 11.3215341 1.7858522 7.728065e-02
x1 4.0907045 1.0613132 3.8543802 2.096928e-04
x 0.8222252 1.0613590 0.7746909 4.404262e-01
x1:x 0.8910530 0.1294695 6.8823366 6.041102e-10
[1] "x.4"
$coefficients
Estimate Std. Error t value Pr(>|t|)
(Intercept) 21.0408119 11.6808159 1.8013135 7.479290e-02
x1 4.9817575 1.1070019 4.5002249 1.905339e-05
x 0.8222252 1.0613590 0.7746909 4.404262e-01
x1:x 0.8910530 0.1294695 6.8823366 6.041102e-10
[1] "x.5"
$coefficients
Estimate Std. Error t value Pr(>|t|)
(Intercept) 21.8630371 12.1226545 1.8034859 7.444873e-02
x1 5.8728105 1.1653521 5.0395160 2.193149e-06
x 0.8222252 1.0613590 0.7746909 4.404262e-01
x1:x 0.8910530 0.1294695 6.8823366 6.041102e-10
[1] "x.6"
$coefficients
Estimate Std. Error t value Pr(>|t|)
(Intercept) 22.6852623 12.6383944 1.7949481 7.580894e-02
x1 6.7638636 1.2345698 5.4787212 3.439867e-07
x 0.8222252 1.0613590 0.7746909 4.404262e-01
x1:x 0.8910530 0.1294695 6.8823366 6.041102e-10
Aquí puede ver la salida proporciona los coeficientes de varias pruebas, pero la única cosa que cambia cada vez que es la pendiente de x1. La pendiente de x1 en cada salida representa la pendiente para cuando x1 x2 es igual a lo de centrado valor que le hemos asignado para esa iteración. Espero que esto ayude!