¿Existe una descripción realmente sencilla de las diferencias prácticas entre estas dos técnicas?
-
Ambos parecen utilizarse para el aprendizaje supervisado (aunque las reglas de asociación también pueden utilizarse para el aprendizaje no supervisado). también pueden utilizarse sin supervisión).
-
Ambos pueden utilizarse para predecir
Lo más parecido que he encontrado a una "buena" descripción es de la Libro de texto Statsoft . Dicen Reglamento de la Asociación están acostumbrados:
...detectar relaciones o asociaciones entre valores específicos de variables categóricas en grandes conjuntos de datos.
En Clasificadores de árbol de decisión se describen como acostumbrados a:
...predecir la pertenencia de casos u objetos a las clases de una variable dependiente categórica a partir de sus mediciones en una o más variables predictoras.
Sin embargo, en R Data Mining, dan un ejemplo de Reglas de asociación utilizadas con un campo de destino .
Así pues, ambos pueden utilizarse para predecir la pertenencia a un grupo, ¿la diferencia clave radica en que los árboles de decisión pueden manejar datos de entrada no categóricos, mientras que las reglas de asociación no? ¿O hay algo más fundamental? Un sitio ( sqlserverdatamining.com ) dice que la diferencia clave es:
Las reglas de los árboles de decisión se basan en la ganancia de información, mientras que las reglas de asociación se basan en la popularidad y/o la confianza.
Entonces (posiblemente respondiendo a mi propia pregunta), ¿significa eso que las reglas de asociación se evalúan exclusivamente en función de la frecuencia con la que aparecen en el conjunto de datos (y la frecuencia con la que son "verdaderas"), mientras que los árboles de decisión intentan en realidad minimizar la varianza?
Si alguien conoce una buena descripción que esté dispuesto a indicarme, sería estupendo.