6 votos

En un modelo con interacciones, ¿se condicionan TODOS los coeficientes de regresión, o sólo los que intervienen en la interacción?

En todos los ejemplos que he visto que describen la interpretación de las interacciones en regresión múltiple (sé que la regresión logística es diferente), utilizan un ejemplo de dos coeficientes de regresión y la interacción entre ellos. Quiero saber cómo se ve afectado el resto de un modelo cuando se incluyen términos de interacción, y si es más apropiado presentar primero un modelo sin interacción y luego con ella (como he visto en algunos artículos y presentaciones).

Por ejemplo, supongamos que tengo 10 predictores, más un término de interacción entre dos de ellos, en mi modelo de regresión. Entiendo que los coeficientes de los términos de interacción son ahora efectos condicionales en lugar de efectos principales. Lo que no entiendo es cómo afecta a la interpretación de los otros 8 predictores de mi modelo.

¿Qué opinas?

5voto

jldugger Puntos 7490

La interpretación se motiva considerando cómo cambian las predicciones del modelo cuando se inducen cambios simples y controlados en las variables originales.

Enmarquemos esto de forma un poco abstracta, porque no complica más la situación al tiempo que revela la esencia del asunto. Si denotamos esas variables por $u=(u_1, \ldots, u_m)$ podemos escribir regresores --me refiero a las variables que realmente intervienen en la regresión--como funciones especificadas $f_1,f_2, \ldots, f_p$ de $u$ . Por ejemplo, $m=3$ variables numéricas más una interacción entre las dos primeras, produciría $p=4$ regresores; a saber, $$\eqalign{x_1 &= f_1(u) = u_1,\\ x_2 &= f_2(u) = u_2,\\ x_3&=f_3(u)=u_3, \text{ and}\\x_4 &= f_4(u)=u_1u_2\ (\text{the interaction}).\tag{*}}$$

Le site modelo ajustado a partir de los parámetros estimados $b=(b_0, b_1, b_2, \ldots, b_p)$ (por "interceptación" se entiende $b_0$ ) se ajusta o "predice" la respuesta $y$ asociado a regresor valores $x_1, \ldots, x_p$ ser

$$\hat y = b_0 + b_1 x_1 + b_2 x_2 + \cdots + b_p x_p.$$

Una forma habitual de interpretarlo es preguntarse cómo $\hat y$ cambiaría cuando, digamos, el conjunto original de variables $u$ se modifica añadiendo una cantidad fija $\delta$ a una sola variable $u_j$ convirtiéndose en $u_j + \delta$ creando así un nuevo conjunto de valores $u^\prime$ . Los que no recurran al Cálculo calcularán la diferencia directamente, como sigue. Sea $\hat y$ sea el valor ajustado para los regresores asociados a $u^\prime$ . Restando $\hat y$ y organizando el resultado por el índice $1, 2, \ldots, p$ muestra el cambio en la respuesta como una combinación lineal de los cambios en los regresores:

$$\hat y^\prime - \hat y = b_1(f_1(u^\prime)-f_1(u)) + \cdots + b_p(f_p(u^\prime)-f_p(u)).\tag{**}$$

La forma de esta expresión pone de relieve el hecho (obvio) de que cambiar $u_j$ sólo afecta a los términos para los que $f_i(u)$ en realidad depende de $u_j$ . (Este es el único aspecto de este análisis que debería memorizar.) Por ejemplo $(*)$ por ejemplo, si $j=3$ entonces sólo $x_3$ se modifica cuando $u_3$ se modifica, convirtiéndose así en

$$x_3^\prime - x_3 = f_3(u^\prime) - f_3(u) = u^\prime_3 - u_3 = (u_3 + \delta) - u_3 = \delta.$$

En todos los demás casos $i\ne 3$ , $x_i^\prime-x_i=f_i(u^\prime) - f_i(u)=0$ no hay cambios. Introduciendo estos cambios en $(**)$ lo simplifica a

$$\hat y^\prime - \hat y = b_3\,\delta.$$

Interpretación : "cambiar $u_3$ por $\delta$ (mientras se arreglan todas las demás $u_i$ ) cambia la respuesta $y$ por $b_3$ veces $\delta$ ." La mayoría de los lectores de este sitio comprenderán que esto sólo pretende ser una descripción en inglés de las relaciones matemáticas anteriores; en particular, no es una afirmación causal. No dice nada sobre lo que ocurrirá en el mundo a $y$ si de alguna manera una observación pudiera ser alterada para cambiar $u_3$ a $u_3+\delta$ (si es que eso es posible).

Tenga en cuenta que $b_3$ no depende de los valores de $u_i$ podría tener: es una "constante". Esto hace que la interpretación sea especialmente sencilla.

Siguiendo con el ejemplo, supongamos que $u_1+\delta$ en lugar de $u_1$ . Ahora dos de la $x_i$ en $(*)$ se ven afectados: $x_1$ aumenta en $\delta$ mientras que $x_4$ aumenta en $\delta u_2$ . En consecuencia $(**)$ produce

$$\hat y^\prime - \hat y = b_1\delta + b_4 \delta u_2 = (b_1 + b_4 u_2)\delta.$$

Interpretación: "cambiar $u_1$ por $\delta$ (mientras se arreglan todas las demás $u_i$ ) cambia la respuesta $y$ por $b_1 + b_4 u_2$ veces $\delta$ ." Allí es la interacción: el cambio en el valor previsto depende de los valores de la variable subyacente $u_2$ . Observe que $u_3$ no está implicada.

La respuesta a la pregunta original debería estar ahora clara de las propias formas de $(*)$ y $(**)$ . Este método de análisis se aplica no sólo a las interacciones, sino -en virtud de la especificación abstracta de las funciones $f_j$ --para todos los demás modelos que combinan el $u_i$ de ninguna manera. (Esto incluye modelos polinómicos, interacciones de orden superior y otros modelos no lineales que podrían implicar crecimiento exponencial, variación sinusoidal, etc.). En particular, la interpretación de cualquier interacción no depende de ninguna variable que no esté directamente implicada en esa interacción.

0 votos

Hmmm. ¿Y si los predictores no son independientes, sino que están correlacionados? En ese caso, ¿la inclusión/omisión de un predictor no altera los coeficientes de todos los predictores correlacionados?

0 votos

@user20637 Este post va de interpretación, no de ajuste o modelado, porque de eso va la pregunta. La correlación entre predictores no cambia esta interpretación. (De hecho, si por "predictores" te refieres a mi $x_i$ entonces, por construcción, pueden depender de formas arbitrariamente complejas, dependiendo de los detalles de las funciones $f_i$ incluso cuando el $u_i$ son independientes). Las cuestiones relativas a la falta de independencia entre los regresores, la adición y omisión de regresores, la transformación de regresores, etc., se abordan ampliamente en otros hilos de este sitio.

1 votos

Gracias por tomarte el tiempo de dar una respuesta tan detallada, @whuber. Realmente me estás haciendo flexionar mi memoria matemática (o simplemente lenguaje simbólico), pero esta es una gran respuesta para el sitio.

4voto

yes Puntos 39

Utilizando su ejemplo, la inclusión de un término de interacción no afectará a la interpretación de los otros 8 coeficientes, pero puede cambiar el propio coeficiente. Por ejemplo, si tiene un modelo y ~ a*age + b*gender + c*age:gender + d*sex + ... + j*race la interpretación del sexo sería: "manteniendo constantes la edad, el sexo, ... raza, el aumento del sexo en una unidad (es decir, el paso de mujer a hombre) aumenta y por d. Esta interpretación es válida independientemente de que exista una interacción entre la edad y el sexo. Sin embargo, el valor de d puede ser diferente dependiendo de si hay o no un término de interacción en el modelo.

0 votos

Gracias por la respuesta tan directa. Si pudiera seleccionar tanto whuber y su respuesta, lo haría porque la respuesta de Whuber es bueno para el sitio, y el suyo es grande para la comprensión rápida y sucia.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X