Ver también una pregunta similar en stats.SE .
En impulsando algoritmos como AdaBoost y LPBoost se sabe que los aprendices "débiles" que se combinan sólo tienen que rendir más que el azar para ser útiles, desde Wikipedia:
Los clasificadores que utiliza pueden ser débiles (es decir, mostrar una tasa de error considerable), pero siempre que su rendimiento no sea aleatorio (lo que supone una tasa de error de 0,5 para la clasificación binaria), mejorarán el modelo final. Incluso los clasificadores con una tasa de error superior a la que cabría esperar de un clasificador aleatorio serán útiles, ya que tendrán coeficientes negativos en la combinación lineal final de clasificadores y, por tanto, se comportarán como sus inversos.
-
¿Cuáles son las ventajas de utilizar estudiantes débiles en lugar de fuertes? (Por ejemplo, ¿por qué no potenciar con métodos de aprendizaje "fuertes", somos más propensos al sobreajuste?)
-
¿Existe algún tipo de fuerza "óptima" para los aprendices débiles? ¿Y está esto relacionado con el número de alumnos en el conjunto?
¿Hay alguna teoría que respalde las respuestas a estas preguntas?