El bag.fraction
parámetro en el SGB controla el tamaño de la submuestra aleatoria de la formación original en la que cada una de las sucesivas débil alumno está equipado:
En cada iteración una submuestra de los datos de entrenamiento es al azar (sin reemplazo) de la totalidad del conjunto de datos de entrenamiento. De esta forma aleatoria seleccionado submuestra se utiliza entonces, en lugar de la totalidad de la muestra, para que se ajuste la base alumno y calcular la actualización de modelo para la actual iteración.
(Cita de la original SGB papel de Friedman).
Lo que no entiendo es cómo es esto compatible con el hecho de que en Gradiente de Impulsar, cada una de las sucesivas modelo base está montado directamente en los residuos (o gradiente de la función de pérdida) del modelo actual.
En otras palabras, ¿cómo podemos encajar cada nuevo modelo de base sobre los residuos del modelo actual y, al mismo tiempo, en una submuestra aleatoria de la original conjunto de entrenamiento? ¿Cuál es el vínculo entre estos dos pasos clave?
Si alguien con suficiente Python alfabetización podría encontrar la información desde el código, sería estupendo. También, el código R no es útil, ya que es sólo un contenedor para una implementación en C.