Bueno, hay un método ad hoc que he utilizado antes. No estoy seguro de si este procedimiento tiene un nombre, pero tiene sentido intuitivamente.
Supongamos que su objetivo es ajustar el modelo
$$ Y_i = \beta_0 + \beta_1 X_i + \beta_2 Z_i + \varepsilon_i $$
donde los dos predictores - $X_i, Z_i$ - están muy correlacionados. Como has señalado, el uso de ambos en el mismo modelo puede hacer cosas extrañas a las estimaciones de los coeficientes y $p$ -valores. Una alternativa es ajustar el modelo
$$ Z_i = \alpha_0 + \alpha_1 X_i + \eta_i $$
Entonces el residuo $\eta_i$ no estará correlacionada con $X_i$ y puede, en cierto sentido, considerarse como la parte de $Z_i$ que no está subsumida por su relación lineal con $X_i$ . A continuación, se puede proceder a ajustar el modelo
$$ Y_i = \theta_0 + \theta_1 X_i + \theta_2 \eta_i + \nu_i $$
que recogerá todos los efectos del primer modelo (y, de hecho, tendrá exactamente el mismo $R^2$ como el primer modelo) pero los predictores ya no son colineales.
Editar: El OP ha pedido una explicación de por qué los residuos no tienen, por definición, una correlación muestral de cero con el predictor cuando se omite el intercepto como lo hacen cuando se incluye el intercepto. Esto es demasiado largo para publicarlo en los comentarios, así que lo he editado aquí. Esta derivación no es particularmente esclarecedora (desafortunadamente no pude llegar a un argumento intuitivo razonable) pero muestra lo que el OP pidió :
Cuando se omite el intercepto en la regresión lineal simple , $\hat \beta = \frac{ \sum x_i y_i}{\sum x_i^2}$ Así que $e_i = y_i - x_i \frac{ \sum x_i y_i}{\sum x_i^2}$ . La correlación de la muestra entre $x_i$ y $e_i$ es proporcional a $$\overline{xe} - \overline{x}\overline{e}$$ donde $\overline{\cdot}$ denota la media muestral de la cantidad bajo la barra. Ahora mostraré que esto no es necesariamente igual a cero.
Primero tenemos
$$\overline{xe} = \frac{1}{n} \left( \sum x_i y_i - x_{i}^2 \cdot \frac{ \sum x_i y_i}{\sum x_i^2} \right) = \overline{xy} \left( 1 - \frac{ \sum x_{i}^2}{ \sum x_{i}^2 } \right) = 0$$
pero
$$\overline{x} \overline{e} = \overline{x} \left( \overline{y} - \frac{\overline{x} \cdot \overline{xy}}{\overline{x^2}} \right) = \overline{x}\overline{y} - \frac{\overline{x}^2 \cdot \overline{xy}}{\overline{x^2}}$$
por lo que para que el $e_i$ y $x_i$ para tener una correlación muestral de exactamente 0, necesitamos $\overline{x}\overline{e}$ para ser $0$ . Es decir, necesitamos $$ \overline{y} = \frac{ \overline{x} \cdot \overline{xy}}{\overline{x^2}} $$
que no se cumple en general para dos conjuntos arbitrarios de datos $x, y$ .