Estoy tratando de entender cómo funciona el XGBoost. Ya entiendo cómo funcionan los árboles potenciados por gradiente en Python sklearn. Lo que no me queda claro es si XGBoost funciona igual, pero más rápido, o si hay diferencias fundamentales entre éste y la implementación de python.
Cuando leí este documento
http://learningsys.org/papers/LearningSys_2015_paper_32.pdf
Me parece que el resultado final que sale de XGboost es el mismo que en la implementación de Python, sin embargo la principal diferencia es cómo XGboost encuentra la mejor división para hacer en cada árbol de regresión.
Básicamente, XGBoost da el mismo resultado, pero es más rápido.
¿Es esto correcto, o hay algo más que se me escapa?