Tengo una pregunta con respecto a la necesidad de utilizar métodos de selección de características (bosques Aleatorios función de valor de importancia o Univariante métodos de selección de características, etc) antes de ejecutar una estadística algoritmo de aprendizaje.
Sabemos que para evitar el sobreajuste podemos presentar a la regularización de la pena en el peso de los vectores.
Así que si quiero hacer la regresión lineal, entonces yo podría introducir la L2 o L1 o incluso una red Elástica de regularización de los parámetros. Para obtener dispersas soluciones, L1 pena de ayuda en la selección de características.
Entonces es todavía necesario para hacer la selección de características antes de Ejecutar L1 regularizationn de regresión como el Lazo?. Técnicamente Lazo me está ayudando a reducir las características por L1 pena entonces, ¿por qué la selección de características necesarias antes de ejecutar algo?
He leído un artículo de investigación diciendo que hacer Anova, a continuación, SVM da mejor rendimiento que el uso de SVM solo. Ahora la pregunta es: SVM inherentemente hace de regularización de uso de la L2 norma. Con el fin de maximizar el margen, es minimizar el peso vector de norma. Por lo que está haciendo la regularización en la función objetivo. Técnicamente los algoritmos SVM no debe ser molestado acerca de los métodos de selección de características?. Pero el informe dice todavía haciendo Univariante de selección de Función antes de lo normal SVM es más potente.
Cualquier persona con pensamientos?
Gracias