El aprendizaje automático (Machine Learning, ML) utiliza en gran medida técnicas de regresión lineal y logística. También se basa en técnicas de ingeniería de características ( feature transform
, kernel
etc.).
¿Por qué nada acerca de variable transformation
(por ejemplo power transformation
) mencionado en ML? (Por ejemplo, nunca oigo hablar de sacar raíces o logaritmos a las características, normalmente sólo usan polinomios o RBFs). Del mismo modo, ¿por qué los expertos en ML no se preocupan por las transformaciones de características para la variable dependiente? (Por ejemplo, nunca oigo hablar de tomar la transformación logarítmica de y; simplemente no transforman y).
Edita: Quizás la pregunta no es definitiva, mi pregunta realmente es "¿la transformación de potencia a variables no es importante en ML?"