4 votos

Cómo medir cuándo se estabiliza el error (convergencia) en los bosques aleatorios (o cuándo se deja de entrenar)

Estoy haciendo una implementación de Bosques Aleatorios. Como estaba el documento original (página 11) y este bonito libro sobre el tema (15.3.1, página 592), mencionan que cuando el error fuera de bolsa se estabiliza (cuando nuestra solución converge) a medida que se entrenan más árboles, se puede detener el entrenamiento antes de realmente llegar a entrenar a todos los árboles.

Eso está muy bien, pero no he encontrado la manera de hacerlo. Estaba pensando en un enfoque ingenuo, teniendo una ventana de los últimos árboles entrenados y calculando la varianza o el stddev del error. Después de que uno de estos valores esté por debajo de un umbral (también definido ingenuamente por... mí) entonces el entrenamiento puede detenerse.

¿Existe un enfoque conocido para este problema?

1voto

katya Puntos 1224

Esto es probablemente sólo un comienzo, pero ¿has probado tuneRF() en randomForest en R? El mejorar le permite especificar la mejora relativa del error OOB para que la búsqueda continúe. http://cran.r-project.org/web/packages/randomForest/randomForest.pdf

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X