Lo que realmente se reduce a una de las "3B" técnicas: bagging, boosting o de fusión.
En el embolsado, entrenar mucho de los clasificadores en los diferentes subconjuntos de objetos y combinar las respuestas por medio de la regresión y la votación para la clasificación (hay algunas otras opciones para situaciones más complejas, pero voy a saltar). Proporción del voto/varianza puede ser interpretado como un error de la aproximación desde el individuo clasificadores son generalmente consideradas como independientes. RF es de hecho una de embolsado conjunto.
Impulso es una familia más amplia de métodos, sin embargo, el punto principal es que la generación siguiente clasificador en los residuos de la anterior, de esta manera (en teoría) poco a poco se aumenta la precisión por destacar más y más sutiles interacciones. Las predicciones son, por lo tanto, combinado sumando a ellos, algo así como el cálculo de un valor de una función en x mediante la suma de los valores de su serie de Taylor' elementos de x.
Versiones más populares son (Estocástico) Gradiente de Aumentar (con buen fundamento matemático) y AdaBoost (muy conocida, de hecho, un caso específico de GB). Desde una perspectiva holística, árbol de decisión es un aumento de la trivial de pivote de los clasificadores.
La fusión es una idea de anidación de clasificadores, es decir, la ejecución de un clasificador en un sistema de información el hecho de que las predicciones de otros clasificadores. Como tal, es un muy variable, método y ciertamente no es un algoritmo definido; puede requerir una gran cantidad de objetos (en la mayoría de los casos la "licuadora" clasificador debe ser entrenado en un conjunto de objetos que no fueron utilizados para construir el parcial de los clasificadores para evitar avergonzar a overfit).
Las predicciones de parcial de los clasificadores son, obviamente, combinado por agruparlas en un sistema de información que es predicho por la licuadora.