Cuando utilizamos el bosque aleatorio para la clasificación, éste construye múltiples árboles y finalmente promedia la salida, en el caso de la clasificación toma un voto mayoritario entre todos los árboles y asigna una clase. En el caso de la predicción con el bosque aleatorio, las características vuelven a pasar por cada árbol y se toma un voto mayoritario en los nodos terminales.
Si pedimos probabilidades de clase, estas probabilidades se calculan contando la proporción de cada una de las clases para todos los árboles, por ejemplo, para la clasificación binaria, $P(1|X)=\frac{\#1's}{\#1's+\#0's}$ .
Mi pregunta:
¿Es conveniente calcular estas probabilidades contando los votos y diseñando después un clasificador, es decir, calculando el AUC, el error de clasificación errónea en función del umbral de probabilidad, la predicción positiva la predicción negativa...?
La lógica parece circular, ya que primero clasificamos por mayoría de votos, luego contamos para obtener probabilidades y después aplicamos un umbral de probabilidad.
¿Podemos hacerlo?