Decir que tengo variable de resultado $Y_i$ y predictores $X_{i1}$ $X_{i2}$ para un punto de datos $i$. Wikipedia dice que un modelo es lineal cuando:
la media de la variable de respuesta es una combinación lineal de los parámetros (coeficientes de regresión) y las variables predictoras.
Yo pensaba que esto significaba que un modelo no puede ser más complicado de lo que: $Y_i = \beta_1 X_{i1} + \beta_2 X_{i2}$. Sin embargo, más allá de la lectura, me enteré de que podía manejar no-lineal "interacciones" de los predictores como en $Y_i = \beta_1 X_{i1} + \beta_2 X_{i2} + \beta_3 X_{i1}\ X_{i2}$ ver $X_{i1}\ X_{i2}$ como otro predictor (que pasa a ser dependiente de $X_{i1}$$X_{i2}$). Esto parece significar que usted puede usar cualquiera (lineal o no lineal) de la función de los predictores como $\log(X_{i1} / X_{i2}^2)$ o lo que sea. Conceptualmente, este tipo de "recodificación" parece que debería de trabajo para los coeficientes así.
Así que: ¿Qué son exactamente los límites de la regresión lineal, dado que puede hacer este tipo de manipulación?