Parece que cuando echo un vistazo a los algoritmos de aprendizaje de moda, se promueven cosas como las redes neuronales, los árboles potenciados, las máquinas de vectores de apoyo, los bosques aleatorios y amigos para problemas de aprendizaje supervisado. Los procesos de Dirichlet y sus similares parecen mencionarse sobre todo en problemas de aprendizaje no supervisado, como la agrupación de documentos o imágenes. Veo que se utilizan para problemas de regresión, o como prioridades de propósito general cuando se quiere hacer estadística bayesiana de una manera no paramétrica o semiparamétrica (por ejemplo, como una prioridad flexible en la distribución de los efectos aleatorios en ciertos modelos), pero mi limitada experiencia sugiere que esto no viene tanto de la multitud de aprendizaje automático como de los estadísticos más tradicionales. He buscado un poco en Google y he encontrado algunos usos definitivos en el aprendizaje automático de las PP para el aprendizaje supervisado, pero parece que cada vez que necesito buscar algo sobre (digamos) las PP jerárquicas, cualquier artículo en el que encuentro la respuesta lo utiliza para el aprendizaje no supervisado.
Entonces, ¿son los procesos Dirichlet y sus primos los más eficaces como priores para los modelos de agrupación flexible? ¿No son competitivos con el boosting, las SVM y las redes neuronales para los problemas de aprendizaje supervisado? ¿Son útiles sólo en determinadas situaciones para estos problemas? ¿O mi impresión general es incorrecta?