Aunque es probable que las dos medidas estadísticas estén correlacionadas, miden cualidades diferentes del clasificador.
AUROC
El área bajo la curva (AUC) es igual a la probabilidad de que un clasificador clasifique mejor un ejemplo positivo elegido al azar que un ejemplo negativo elegido al azar. Mide la habilidad de los clasificadores en clasificación un conjunto de patrones según el grado de pertenencia a la clase positiva, pero sin asignar realmente los patrones a las clases.
La precisión global también depende de la capacidad del clasificador para clasificar los patrones, pero también de su capacidad para seleccionar un umbral en la clasificación utilizada para asignar los patrones a la clase positiva si está por encima del umbral y a la clase negativa si está por debajo.
Por lo tanto, el clasificador con la estadística AUROC más alta (en igualdad de condiciones) es probable que también tenga una mayor precisión global, ya que la clasificación de los patrones (que mide el AUROC) es beneficiosa tanto para el AUROC como para la precisión global. Sin embargo, si un clasificador clasifica bien los patrones, pero selecciona mal el umbral, puede tener un AUROC alto pero una precisión general pobre.
Uso práctico
En la práctica, me gusta recoger la precisión global, el AUROC y, si el clasificador estima la probabilidad de pertenencia a una clase, la entropía cruzada o la información predictiva. A continuación, tengo una métrica que mide su capacidad bruta para realizar una clasificación dura (suponiendo que los costes de clasificación errónea de falsos positivos y falsos negativos son iguales y que las frecuencias de las clases en la muestra son las mismas que las de uso operacional, ¡una gran suposición!), una métrica que mide la capacidad de clasificar patrones y una métrica que mide lo bien que se calibra la clasificación como probabilidad.
Para muchas tareas, los costes de clasificación errónea operativa son desconocidos o variables, o las frecuencias de las clases operativas son diferentes a las de la muestra de entrenamiento o son variables. En ese caso, la precisión global suele carecer de sentido y el AUROC es un mejor indicador del rendimiento, e idealmente queremos un clasificador que produzca probabilidades bien calibradas, de modo que podamos compensar estos problemas en el uso operativo. Básicamente, la métrica que sea importante depende del problema que intentemos resolver.
1 votos
He encontrado un artículo que puede tener algún interés para algunos de ustedes. google.es/
0 votos
¿No se supone que el AUC es menor que la precisión global, ya que en la medida del AUC se tiene en cuenta la tasa de falsos positivos, mientras que en la precisión no?
0 votos
El ROC AUC es beneficioso cuando las clases tienen diferente tamaño. Si el 99% de los objetos son positivos, se puede obtener una precisión del 99% mediante un muestreo aleatorio. Entonces, el valor de ROC AUC será mucho más significativo.