Estoy tratando de resolver la tarea de regresión. He descubierto que hay 3 modelos que funcionan bien para diferentes subconjuntos de datos: LassoLARS, SVR y Gradient Tree Boosting. Me he dado cuenta de que cuando hago predicciones utilizando estos 3 modelos y luego hago una tabla de 'salida verdadera' y salidas de mis 3 modelos veo que cada vez al menos uno de los modelos está realmente cerca de la salida verdadera, aunque otros 2 podrían estar relativamente lejos.
Cuando calculo el error mínimo posible (si tomo la predicción del "mejor" predictor para cada ejemplo de prueba) obtengo un error que es mucho menor que el error de cualquier modelo por sí solo. Así que pensé en intentar combinar las predicciones de estos 3 modelos diferentes en una especie de conjunto. La pregunta es, ¿cómo hacer esto correctamente? Todos mis 3 modelos están construidos y ajustados usando scikit-learn, ¿proporciona algún tipo de método que pueda ser utilizado para empaquetar los modelos en el conjunto? El problema aquí es que no quiero simplemente promediar las predicciones de los tres modelos, quiero hacer esto con la ponderación, donde la ponderación debe ser determinada sobre la base de las propiedades de un ejemplo específico.
Incluso si scikit-learn no proporciona tal funcionalidad, sería bueno si alguien sabe cómo propiedad abordar esta tarea - de averiguar la ponderación de cada modelo para cada ejemplo en los datos. Creo que podría ser hecho por un regresor separado construido en la parte superior de todos estos 3 modelos, que tratará de salida pesos óptimos para cada uno de los 3 modelos, pero no estoy seguro de si esta es la mejor manera de hacer esto.