Estoy haciendo una implementación de Bosques Aleatorios. Como estaba el documento original (página 11) y este bonito libro sobre el tema (15.3.1, página 592), mencionan que cuando el error fuera de bolsa se estabiliza (cuando nuestra solución converge) a medida que se entrenan más árboles, se puede detener el entrenamiento antes de realmente llegar a entrenar a todos los árboles.
Eso está muy bien, pero no he encontrado la manera de hacerlo. Estaba pensando en un enfoque ingenuo, teniendo una ventana de los últimos árboles entrenados y calculando la varianza o el stddev del error. Después de que uno de estos valores esté por debajo de un umbral (también definido ingenuamente por... mí) entonces el entrenamiento puede detenerse.
¿Existe un enfoque conocido para este problema?