La interpretación se motiva considerando cómo cambian las predicciones del modelo cuando se inducen cambios simples y controlados en las variables originales.
Enmarquemos esto de forma un poco abstracta, porque no complica más la situación al tiempo que revela la esencia del asunto. Si denotamos esas variables por $u=(u_1, \ldots, u_m)$ podemos escribir regresores --me refiero a las variables que realmente intervienen en la regresión--como funciones especificadas $f_1,f_2, \ldots, f_p$ de $u$ . Por ejemplo, $m=3$ variables numéricas más una interacción entre las dos primeras, produciría $p=4$ regresores; a saber, $$\eqalign{x_1 &= f_1(u) = u_1,\\ x_2 &= f_2(u) = u_2,\\ x_3&=f_3(u)=u_3, \text{ and}\\x_4 &= f_4(u)=u_1u_2\ (\text{the interaction}).\tag{*}}$$
Le site modelo ajustado a partir de los parámetros estimados $b=(b_0, b_1, b_2, \ldots, b_p)$ (por "interceptación" se entiende $b_0$ ) se ajusta o "predice" la respuesta $y$ asociado a regresor valores $x_1, \ldots, x_p$ ser
$$\hat y = b_0 + b_1 x_1 + b_2 x_2 + \cdots + b_p x_p.$$
Una forma habitual de interpretarlo es preguntarse cómo $\hat y$ cambiaría cuando, digamos, el conjunto original de variables $u$ se modifica añadiendo una cantidad fija $\delta$ a una sola variable $u_j$ convirtiéndose en $u_j + \delta$ creando así un nuevo conjunto de valores $u^\prime$ . Los que no recurran al Cálculo calcularán la diferencia directamente, como sigue. Sea $\hat y$ sea el valor ajustado para los regresores asociados a $u^\prime$ . Restando $\hat y$ y organizando el resultado por el índice $1, 2, \ldots, p$ muestra el cambio en la respuesta como una combinación lineal de los cambios en los regresores:
$$\hat y^\prime - \hat y = b_1(f_1(u^\prime)-f_1(u)) + \cdots + b_p(f_p(u^\prime)-f_p(u)).\tag{**}$$
La forma de esta expresión pone de relieve el hecho (obvio) de que cambiar $u_j$ sólo afecta a los términos para los que $f_i(u)$ en realidad depende de $u_j$ . (Este es el único aspecto de este análisis que debería memorizar.) Por ejemplo $(*)$ por ejemplo, si $j=3$ entonces sólo $x_3$ se modifica cuando $u_3$ se modifica, convirtiéndose así en
$$x_3^\prime - x_3 = f_3(u^\prime) - f_3(u) = u^\prime_3 - u_3 = (u_3 + \delta) - u_3 = \delta.$$
En todos los demás casos $i\ne 3$ , $x_i^\prime-x_i=f_i(u^\prime) - f_i(u)=0$ no hay cambios. Introduciendo estos cambios en $(**)$ lo simplifica a
$$\hat y^\prime - \hat y = b_3\,\delta.$$
Interpretación : "cambiar $u_3$ por $\delta$ (mientras se arreglan todas las demás $u_i$ ) cambia la respuesta $y$ por $b_3$ veces $\delta$ ." La mayoría de los lectores de este sitio comprenderán que esto sólo pretende ser una descripción en inglés de las relaciones matemáticas anteriores; en particular, no es una afirmación causal. No dice nada sobre lo que ocurrirá en el mundo a $y$ si de alguna manera una observación pudiera ser alterada para cambiar $u_3$ a $u_3+\delta$ (si es que eso es posible).
Tenga en cuenta que $b_3$ no depende de los valores de $u_i$ podría tener: es una "constante". Esto hace que la interpretación sea especialmente sencilla.
Siguiendo con el ejemplo, supongamos que $u_1+\delta$ en lugar de $u_1$ . Ahora dos de la $x_i$ en $(*)$ se ven afectados: $x_1$ aumenta en $\delta$ mientras que $x_4$ aumenta en $\delta u_2$ . En consecuencia $(**)$ produce
$$\hat y^\prime - \hat y = b_1\delta + b_4 \delta u_2 = (b_1 + b_4 u_2)\delta.$$
Interpretación: "cambiar $u_1$ por $\delta$ (mientras se arreglan todas las demás $u_i$ ) cambia la respuesta $y$ por $b_1 + b_4 u_2$ veces $\delta$ ." Allí es la interacción: el cambio en el valor previsto depende de los valores de la variable subyacente $u_2$ . Observe que $u_3$ no está implicada.
La respuesta a la pregunta original debería estar ahora clara de las propias formas de $(*)$ y $(**)$ . Este método de análisis se aplica no sólo a las interacciones, sino -en virtud de la especificación abstracta de las funciones $f_j$ --para todos los demás modelos que combinan el $u_i$ de ninguna manera. (Esto incluye modelos polinómicos, interacciones de orden superior y otros modelos no lineales que podrían implicar crecimiento exponencial, variación sinusoidal, etc.). En particular, la interpretación de cualquier interacción no depende de ninguna variable que no esté directamente implicada en esa interacción.