1 votos

Importancia de características de Random forest con max_depth = 1

Estoy usando sklearn para estimar un clasificador de bosque aleatorio. Por curiosidad he establecido max_features=None y max_depth=1. Todo lo demás se deja tal cual.

Esperaría que la importancia de las características, que obtengo a través de feature_importances_, consistiera en solo 1 valor. Sin embargo, la importancia de las características tiene valores para todas las características de mis valores. ¿Cómo es posible esto y qué me estoy perdiendo?

2voto

Deborah Cole Puntos 11

Esto se debe a que un Bosque Aleatorio no consiste solo en un árbol de decisión, sino en N, siendo N el parámetro en n_estimators (https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestRegressor.html, https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestClassifier.html)

Por lo tanto, tendrás n_estimators árboles de decisión con max_depth=1. Esto te permite tener varias importancias de características.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X