Mientras que el aprendizaje acerca de Gradiente de Impulsar, no he oído hablar de ningún tipo de limitaciones en cuanto a las propiedades de un "clasificador débil" que el método que se utiliza para construir y el conjunto del modelo. Sin embargo, yo no podía imaginar una aplicación de un GB que utiliza la regresión lineal, y de hecho, cuando he realizado algunas pruebas de que no funciona. Estuve probando el estándar de la mayoría de enfoque con un gradiente de la suma de los cuadrados de los residuos y la adición de los posteriores modelos juntos.
El problema evidente es que los residuos desde el primer modelo se rellenan de tal manera que no hay realmente ninguna línea de regresión para que quepa más. Mi otra observación es que una suma de posteriores modelos de regresión lineal se puede representar como un único modelo de regresión (la adición de todas las intersecciones y los correspondientes coeficientes) así que no puedo imaginar lo que nunca podría mejorar el modelo. La última observación es que una regresión lineal (el más típico de enfoque) es mediante la suma de los cuadrados de los residuos como una función de pérdida - el mismo que GB es de usar.
También pensé en la reducción de la tasa de aprendizaje o el uso de sólo un subconjunto de indicadores para cada iteración, pero que aún podría resumirse a un único modelo de representación eventual, así que supongo que esto traería ninguna mejora.
Lo que me estoy perdiendo aquí? Es la regresión lineal de alguna manera inapropiada para su uso con Gradiente de Impulsar? Es a causa de la regresión lineal se utiliza la suma de los cuadrados de los residuos como una función de pérdida? ¿Existen restricciones particulares a la débil predictores de modo que se puede aplicar al Gradiente de Impulsar?