Haciendo una investigación sobre la xgboost algoritmo fui a través de la documentación.
En este enfoque los árboles están regularizados mediante la complejidad de la definición de $$ \Omega(f) = \gamma T + \frac12 \lambda \sum_{j=1}^T w_j^2 $$ donde $\gamma$ $\lambda$ son parámetros, $T$ es el número de la terminal de las hojas y $w_j$ es la puntuación en cada hoja.
Me pregunto: ¿cómo es que esto de definir la complejidad? $T$, el número de nodos terminales, parece natural para mí. Pero la suma de los puntajes finales cuadrado?
Tal vez el sobreajuste es decir. Lo que significa que muy grandes puntuaciones dar demasiada confianza? Es elegido para obtener una débil alumno? ¿Qué es una explicación natural para esta elección de la complejidad de la función?