Descargo de responsabilidad: suelo equivocarme en las cosas.
Los árboles de decisión, en virtud de la división recursiva de sus muestras, con divisiones basadas en una sola variable, sólo pueden generar límites de decisión paralelos a los ejes de su sistema de coordenadas. Así que girando los datos en las direcciones de máxima varianza/diagonalizando la matriz de covarianza lo mejor posible, puede ser más fácil poner límites de decisión entre las distribuciones de clase
Dicho esto, no estoy seguro de por qué hacer PCA (sin descartar algunos de sus vectores propios) antes de utilizar un modelo de red neuronal o lo que sea, porque la rotación por sí sola no hace ninguna diferencia - la red puede aproximar cualquier función a través del espacio de características.
0 votos
Me atrevería a decir que los árboles de decisión son más difíciles de entrenar. Hay muchos detalles en los algoritmos de aprendizaje para ellos. El PCA tiene un marco bien fundado para ajustar en lugar de perderse en los detalles.
1 votos
La reducción de la dimensionalidad mediante el PCA puede servir definitivamente como regularización para evitar el sobreajuste. Por ejemplo, en la regresión se conoce como "regresión de componentes principales" y está relacionada con la regresión de crestas. Para la clasificación, véase, por ejemplo, aquí: ¿Tiene sentido combinar PCA y LDA?
0 votos
Creo que la respuesta de arriba no entiende el sentido de esta pregunta (ver mi comentario debajo de ella). Le sugiero que lea este hilo stats.stackexchange.com/questions/141864 y siga los enlaces para ver el debate completo.