Actualmente estoy tomando mi primera clase de regresión lineal aplicada a nivel de postgrado, y estoy luchando con las transformaciones de las variables predictoras en la regresión lineal múltiple. El texto que estoy usando, Kutner et al "Applied Linear Statistical Models" no parece cubrir la pregunta que estoy teniendo. (aparte de sugerir que hay un método Box-Cox para transformar predictores múltiples).
Cuando nos enfrentamos a una variable de respuesta y a varias variables predictoras, ¿qué condiciones se intentan cumplir con cada una de ellas? Entiendo que en última instancia buscamos la constancia de la varianza del error y que los errores se distribuyan normalmente (al menos en las técnicas que me han enseñado hasta ahora). Me han llegado muchos ejercicios en los que la solución era, por ejemplo y ~ x1 + (1/x2) + log(x3)
donde uno o más predictores fueron transformados.
Entendí la razón de ser de la regresión lineal simple, ya que era fácil mirar y~x1 y los diagnósticos relacionados (gráficos q-q de los residuos, residuos frente a y, residuos frente a x, etc.) y probar si y~log(x1) se ajustaba mejor a nuestros supuestos.
¿Existe un buen punto de partida para entender cuándo transformar un predictor en presencia de muchos predictores?
Gracias por adelantado. Matt