El error estándar de la variable de interés $x$ se puede calcular como
$$s.e.({\hat\beta_x})=\sqrt{VIF_x\frac{\sigma_\varepsilon^2}{nVar(x)}} $$
Como siempre, $\sigma_\varepsilon^2=\sum_i\varepsilon_i^2 $ es la varianza del error de regresión y $VIF_x$ es el factor de inflación de la varianza de $x$ .
Si ahora se controla una segunda variable $z$ (que resulta ser muy significativa), se reducen inevitablemente los residuos $\varepsilon_i$ lo que lleva a su vez a una reducción de $\sigma_\varepsilon^2$ . Porque $z$ no es un factor de confusión, $VIF_x$ se mantiene sin cambios. En definitiva, $s.e.(\hat\beta_x)$ se hundiría.
Si mi pensamiento es correcto, entonces uno trataría de controlar en grandes conjuntos de datos (digamos, 100k observaciones) tantas variables de control altamente significativas como sea posible. Esto se debe a que la pérdida de grados de libertad es insignificante y la $p$ -El valor de la variable de interés baja.
El control de los no-confundidos parece ser una cuestión bastante importante para acertar en la estadística aplicada. Por lo tanto, me pregunto si mi argumento es correcto o si he entendido algo mal.
Mis mejores deseos, Tom