Una estimación del parámetro en un modelo de regresión (por ejemplo, $\hat\beta_i$) va a cambiar si una variable, $X_j$, se agrega a la modelo que es:
- correlacionada con la del parámetro de la variable correspondiente, $X_i$ (que ya estaba en el modelo), y
- correlacionada con la variable de respuesta, $Y$
Se estima que la beta no va a cambiar cuando una nueva variable a la que se añade, si cualquiera de los de arriba no están correlacionados. Tenga en cuenta que si ellos no están correlacionadas en la población (es decir, $\rho_{(X_i, X_j)}=0$, o $\rho_{(X_j, Y)}=0$) es irrelevante. Lo que importa es que tanto la muestra correlaciones son exactamente $0$. En esencia, esto nunca será el caso en la práctica a menos que se trabaje con datos experimentales, donde las variables fueron manipulados de tal manera que ellos no están correlacionados por diseño.
Tenga en cuenta también que la cantidad de los parámetros de cambio puede no ser muy significativo (que depende, al menos en parte, en su teoría). Por otra parte, la cantidad que puede cambiar es una función de las magnitudes de las dos correlaciones por encima.
En una nota diferente, realmente no es correcto pensar de este fenómeno como "el coeficiente de una variable dada [ser] influenciado por el coeficiente de otra variable". No se trata de las betas que se influencian unos a otros. Este fenómeno es un resultado natural del algoritmo de software estadístico utiliza para calcular la pendiente de los parámetros. Imagine una situación en la $Y$ es causada tanto por $X_i$$X_j$, que a su vez están correlacionadas entre sí. Si sólo $X_i$ está en el modelo, parte de la variación en $Y$ que es debido a $X_j$ será inapropiada atribuido a $X_i$. Esto significa que el valor de $X_i$ es sesgada; esto se llama el sesgo de variable omitida.