35 votos

¿Por qué podría cambiar variables independientes centradoras los principales efectos con moderación?

Tengo una pregunta relativa a la regresión múltiple y la interacción, inspirado por este CV hilo: término de Interacción centrado en el uso de las variables de regresión jerárquica de los análisis? Qué variables debemos centro?

Cuando la comprobación de un efecto moderador de la que yo hago el centro de mis variables independientes y multiplicar el centrado de las variables para calcular el término de interacción. Entonces puedo ejecutar mi análisis de regresión y de verificación de los principales y efectos de la interacción, que puede mostrar la moderación.

Si me vuelve a hacer el análisis sin centrar, al parecer, el coeficiente de determinación ($R^2$) no cambia, pero los coeficientes de regresión ($\beta$s) no. Que parece claro y lógico.

Lo que no entiendo: Los p-valores de los principales efectos del cambio sustancialmente con el centrado, aunque la interacción no (que es la derecha). Así que mi interpretación de los principales efectos que podría cambiar dramáticamente - sólo se determina por el centrado o no. (Que sigue siendo el mismo de los datos, en ambos análisis!)

Puede alguien aclarar? - Porque eso significaría que la opción de centro de mis variables sería obligatorio y todo el mundo debería hacer en el fin de obtener los mismos resultados con los mismos datos.


Muchas gracias por distribuir a ese problema y sus explicaciones completa. Estar seguro de que su ayuda es muy apreciada!

Para mí, la mayor ventaja de centrar es evitar la multicolinealidad. Todavía es bastante confuso para establecer una norma, ya sea al centro o no. Mi impresión es que la mayoría de los recursos que se sugieren para el centro, aunque hay algunos "riesgos" al hacerlo. De nuevo quiero poner de relieve el hecho de que 2 de los investigadores que tratan con el mismo material y datos podría concluir resultados diferentes, porque uno de centrado y el otro no. Acabo de leer una parte de un libro por Bortz (él era un Profesor y una especie de Estadísticas de la Estrella en Alemania y Europa), y él ni siquiera mencionar que la técnica; sólo señala a ser cuidadoso en la interpretación de los efectos principales de las variables cuando se participa en las interacciones.

Después de todo, al realizar una regresión con una IV, un moderador (o segunda IV) y DV, te recomiendo, al centro o no?

31voto

Calvin Puntos 111

En los modelos sin los términos de interacción (que es, sin términos que se construyen como el producto de otros términos), cada una de las variables de la regresión coeficiente de la pendiente de la regresión de la superficie en la dirección de esa variable. Es constante, independientemente de los valores de las variables, y por lo tanto puede decirse para medir el efecto general de la variable.

En los modelos con interacciones, esta interpretación puede ser hecho sin mayor calificación sólo para aquellas variables que no están involucrados en las interacciones. Para una variable que interviene en las interacciones, el "principal-efecto" coeficiente de regresión (es decir, el coeficiente de regresión de la variable por sí mismo-es la pendiente de la regresión de la superficie en la dirección de esa variable cuando todas las otras variables que interactúan con la variable tiene valores de cero, y la importancia de la prueba del coeficiente se refiere a la pendiente de la regresión de la superficie sólo en la región de la predictor espacio. Ya que no hay ningún requisito de que no ser en realidad los datos en esa región del espacio, el principal efecto del coeficiente de mayo tienen poco parecido a la pendiente de la regresión de la superficie en la región de la predictor espacio donde los datos fueron realmente observada.

En anova términos, el principal efecto del coeficiente es análoga a la de un simple efecto principal, no la principal efecto. Por otra parte, puede referirse a lo que en un anova de diseño sería celdas vacías en la que los datos fueron suministrados por la extrapolación de las celdas con datos.

Para medir el efecto general de la variable que es análogo a un general de los efectos principales en el análisis de varianza y no extrapolar más allá de la región en la que los datos fueron observados, debemos mirar el promedio de la pendiente de la regresión de la superficie en la dirección de la variable, donde el promedio es de más de la N los casos que fueron realmente observada. Esta pendiente media puede ser expresada como una suma ponderada de los coeficientes de regresión de todos los términos en el modelo que involucran la variable en cuestión.

Los pesos son difícil de describir pero fácil de conseguir. La variable principal efecto del coeficiente de siempre obtiene un peso de 1. Para cada uno de los otros coeficiente de un término que implica dicha variable, el peso es la media de los productos de las otras variables en ese plazo. Por ejemplo, si tenemos cinco "raw" variables x1, x2, x3, x4, x5, más de cuatro interacciones de dos (x1,x2), (x1,x3), (x2,x3), (x4,x5), y una interacción de tres vías (x1,x2,x3), entonces el modelo es

y = b0 + b1*x1 + b2*x2 + b3*x3 + b4*x4 + b5*x5 +
    b12*x1*x2 + b13*x1*x3 + b23*x2*x3 + b45*x4*x5 +
    b123*x1*x2*x3 + e

y el conjunto de efectos principales son

B1 = b1 + b12*M[x2] + b13*M[x3] + b123*M[x2*x3],

B2 = b2 + b12*M[x1] + b23*M[x3] + b123*M[x1*x3],

B3 = b3 + b13*M[x1] + b23*M[x2] + b123*M[x1*x2],

B4 = b4 + b45*M[x5],

B5 = b5 + b45*M[x4],

donde M[.] denota la media de la muestra de la cantidad dentro del paréntesis. Todo el producto de los términos dentro de los paréntesis son algunos de los que fueron construidos con el fin de hacer la regresión, por lo que una regresión programa ya debe saber acerca de ellos y debe ser capaz de imprimir sus medios en la solicitud.

En los modelos que sólo tienen efectos principales y las interacciones de dos, hay una manera más simple de obtener los efectos generales: centro[1] la cruda variables en sus medios. Esto se debe hacer antes de calcular el producto de los términos, y no se debe hacer a los productos. A continuación, todos los M[.] las expresiones se convierten en 0, y los coeficientes de regresión será interpretable como efectos generales. Los valores de la b va a cambiar; los valores de la B no. Sólo las variables que intervienen en las interacciones deben estar centrados, pero generalmente no hay daño en el centrado de otras variables medidas. El efecto general de centrado de una variable es que, además de cambiar la intersección, solo cambia los coeficientes de las otras variables que interactúan con el centrado de la variable. En particular, no cambia los coeficientes de los términos que involucran el centro de la variable. En el ejemplo anterior, centrado x1 iba a cambiar b0, b2, b3, y b23.

[1 -- "Centrado" es utilizado por diferentes personas en formas que difieren sólo lo suficiente para causar confusión. Como se usa aquí, "el centrado de una variable en #" significa restar # de todas las puntuaciones en la variable, la conversión de las partituras originales para las desviaciones de #.]

Así que ¿por qué no siempre se centro en los medios, de forma rutinaria? Tres razones. En primer lugar, el principal efecto de los coeficientes de la uncentered variables pueden ser de su interés. Centrado en tales casos sería contraproducente, ya que cambia el principal efecto de los coeficientes de las otras variables.

Segundo, centrado hará todos los M[.] las expresiones de 0, y así convertir los efectos simples a efectos generales, sólo en los modelos sin tres o más interacciones. Si el modelo contiene tales interacciones, a continuación, el b -> B los cálculos se debe realizar aún, incluso si todas las variables están centradas en sus medios.

Tercero, centrado en un valor como la media, que es definida por la distribución de los predictores en lugar de ser elegido racionalmente, significa que todos los coeficientes que se ven afectados por centrar será específica para el particular de la muestra. Si en el centro de la media, a continuación, alguien que intenta replicar el estudio del centro en su decir, no de su propio decir, si quieres obtener los mismos coeficientes que tienes. La solución a este problema es el centro de cada variable en un racionalmente elegido valor central de la variable que depende del significado de las puntuaciones y no depende de la distribución de las puntuaciones. Sin embargo, el b -> B cálculos todavía siguen siendo necesarios.

La importancia de los efectos globales pueden ser probados por los procedimientos habituales para la prueba de las combinaciones lineales de coeficientes de regresión. Sin embargo, los resultados deben interpretarse con cuidado debido a los efectos generales no son parámetros estructurales, pero son de diseño-dependiente. Los parámetros estructurales -- los coeficientes de regresión (descentrada, o con racional centrado) y la varianza de error, que puede ser espera que permanecen invariantes bajo cambios en la distribución de los predictores, pero el efecto global será en general el cambio. Los efectos generales son específicos para el particular de la muestra y no se debe esperar para llevar a otras muestras con diferentes distribuciones de los predictores. Si un efecto general es significativa en un estudio y no en otro, puede reflejar nada más que una diferencia en la distribución de los predictores. En particular, no debe ser tomado como evidencia de que la relación de la variable dependiente para los predictores es diferente en los dos estudios.

18voto

Patrick Coulombe Puntos 1887

Eso es porque en cualquier regresión implica a más de un predictor, el $\beta$s son coeficientes parciales; se interpretan como la predicción de cambio en la variable dependiente para cada 1-unidad de incremento en un factor de predicción, la celebración de todos los demás predictores constante.

En una regresión que implican los términos de interacción, por ejemplo $y=\beta_1x_1+\beta_2x_2+\beta_3x_1x_2+\epsilon$, $\beta_1$ es el aumento esperado en la variable dependiente para cada 1-unidad de incremento en $x_1$, manteniendo todas las demás condiciones constantes. Este es un problema para el término $\beta_3x_1x_2$, como va a variar como $x_1$ varía. La única manera de sostener el término de interacción constante de un 1-unidad de incremento en $x_1$ o $x_2$ (las dos variables que intervienen en la interacción) es la de establecer la otra variable a 0. Por lo tanto, cuando una variable es también parte de un término de interacción, la interpretación de la $\beta$ para esta variable depende de la otra variable: 0—no sólo se mantiene constante.

Por esta razón, la interpretación de la $\beta$s va a cambiar dependiendo de donde el 0 es la otra variable que intervienen en la interacción, donde el 0 es la variable de interés, en realidad no cambia la interpretación de su coeficiente. En este caso, por ejemplo, $\beta_1$ es el aumento pronosticado en $y$ por cada 1-unidad de incremento en $x_1$ al $x_2=0$. Si la relación entre el $x_1$ $y$ cambios como una función de la $x_2$ (como en la hipótesis de que al incluir un término de interacción), entonces el significado de $\beta_1$ va a cambiar en función de la capacidad de $x_2$.

También, tenga en cuenta que si el valor de su $\beta$s cambiar considerablemente en función de centrado, luego de su término de interacción es probablemente significativo; y si lo es, la interpretación de los "efectos principales" puede ser engañoso, porque esto significa que la relación entre el $x_1$ $y$ depende del valor de $x_2$, y viceversa. Una típica manera de lidiar con esto es graficar los valores de predicción para $y$ como una función de la $x_1$, para un par de valores de $x_2$ (es decir, 3; por ejemplo, 0 y ±1 SD).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X