Estoy trabajando con muchos algoritmos: RandomForest, DecisionTrees, NaiveBayes, SVM (kernel=linear y rbf), KNN, LDA y XGBoost. Todos ellos fueron bastante rápidos, excepto SVM. Fue entonces cuando supe que necesita escalado de características para funcionar más rápido. Entonces comencé a preguntarme si debería hacer lo mismo con los otros algoritmos.
Respuesta
¿Demasiados anuncios?En general, los algoritmos que explotan distancias o similitudes (por ejemplo, en forma de producto escalar) entre muestras de datos, como k-NN y SVM, son sensibles a las transformaciones de características.
Los clasificadores basados en modelos gráficos, como Fisher LDA o Naive Bayes, así como los árboles de decisión y los métodos de conjunto basados en árboles (RF, XGB) son invariantes para el escalado de características, pero aún así, podría ser una buena idea reescalar / estandarizar sus datos.