38 votos

Área bajo la curva ROC frente a la precisión global

Estoy un poco confundido sobre el Área Bajo la Curva (AUC) del ROC y la precisión general.

  1. ¿Será el AUC proporcional a la precisión global? En otras palabras, cuando tengamos una mayor precisión global, ¿tendremos definitivamente una mayor AUC? ¿O están por definición positivamente correlacionados?

  2. Si están correlacionados positivamente, ¿por qué nos molestamos en informar de ambos en algunas publicaciones?

  3. En un caso real, realicé una tarea de clasificación y obtuve los siguientes resultados: el clasificador A obtuvo una precisión del 85% y un AUC de 0,98 y el clasificador B obtuvo una precisión del 93% y un AUC de 0,92. La pregunta es, ¿qué clasificador es mejor? ¿Es posible obtener resultados similares a estos (o mis resultados indican un error en mi implementación)?

1 votos

He encontrado un artículo que puede tener algún interés para algunos de ustedes. google.es/

0 votos

¿No se supone que el AUC es menor que la precisión global, ya que en la medida del AUC se tiene en cuenta la tasa de falsos positivos, mientras que en la precisión no?

0 votos

El ROC AUC es beneficioso cuando las clases tienen diferente tamaño. Si el 99% de los objetos son positivos, se puede obtener una precisión del 99% mediante un muestreo aleatorio. Entonces, el valor de ROC AUC será mucho más significativo.

37voto

John Richardson Puntos 1197

Aunque es probable que las dos medidas estadísticas estén correlacionadas, miden cualidades diferentes del clasificador.

AUROC

El área bajo la curva (AUC) es igual a la probabilidad de que un clasificador clasifique mejor un ejemplo positivo elegido al azar que un ejemplo negativo elegido al azar. Mide la habilidad de los clasificadores en clasificación un conjunto de patrones según el grado de pertenencia a la clase positiva, pero sin asignar realmente los patrones a las clases.

La precisión global también depende de la capacidad del clasificador para clasificar los patrones, pero también de su capacidad para seleccionar un umbral en la clasificación utilizada para asignar los patrones a la clase positiva si está por encima del umbral y a la clase negativa si está por debajo.

Por lo tanto, el clasificador con la estadística AUROC más alta (en igualdad de condiciones) es probable que también tenga una mayor precisión global, ya que la clasificación de los patrones (que mide el AUROC) es beneficiosa tanto para el AUROC como para la precisión global. Sin embargo, si un clasificador clasifica bien los patrones, pero selecciona mal el umbral, puede tener un AUROC alto pero una precisión general pobre.

Uso práctico

En la práctica, me gusta recoger la precisión global, el AUROC y, si el clasificador estima la probabilidad de pertenencia a una clase, la entropía cruzada o la información predictiva. A continuación, tengo una métrica que mide su capacidad bruta para realizar una clasificación dura (suponiendo que los costes de clasificación errónea de falsos positivos y falsos negativos son iguales y que las frecuencias de las clases en la muestra son las mismas que las de uso operacional, ¡una gran suposición!), una métrica que mide la capacidad de clasificar patrones y una métrica que mide lo bien que se calibra la clasificación como probabilidad.

Para muchas tareas, los costes de clasificación errónea operativa son desconocidos o variables, o las frecuencias de las clases operativas son diferentes a las de la muestra de entrenamiento o son variables. En ese caso, la precisión global suele carecer de sentido y el AUROC es un mejor indicador del rendimiento, e idealmente queremos un clasificador que produzca probabilidades bien calibradas, de modo que podamos compensar estos problemas en el uso operativo. Básicamente, la métrica que sea importante depende del problema que intentemos resolver.

0 votos

Dikran, ¿tienes una referencia para tu primer párrafo?

0 votos

@Bunder no directamente, el AUROC es la probabilidad de que un patrón +ve seleccionado al azar sea clasificado más alto que un patrón -ve seleccionado al azar ( es.wikipedia.org/wiki/ ) y, por tanto, es una medida de la calidad de la clasificación, ya que queremos que esa probabilidad sea lo más alta posible.

33voto

Vincent Puntos 1064

El AUC (basado en el ROC) y la precisión global no parecen ser el mismo concepto.

La precisión global se basa en un punto de corte específico, mientras que el ROC prueba todos los puntos de corte y traza la sensibilidad y la especificidad. Por lo tanto, cuando comparamos la precisión global, estamos comparando la precisión basada en algún punto de corte. La precisión global varía según el punto de corte.

2 votos

Muchas gracias por su respuesta. Entiendo que la precisión global se obtiene a partir de cierto punto de corte (o valor umbral). Sin embargo, hay un punto de corte óptimo, es decir, el más cercano a la esquina superior izquierda. Por ejemplo, mi precisión global se calcula utilizando este mejor punto de corte, y el AUC es para todos los diferentes puntos de corte. Entonces, ¿cómo interpretar esta precisión y AUC? Por ejemplo, el rendimiento de los dos clasificadores que he mencionado anteriormente.

3 votos

Oh, ya veo. Estás comparando la mejor precisión global y el AUC. Pero siguen siendo conceptos diferentes. El AUC es la P(predicción TRUE|actual TRUE) frente a P(FALSE|FALSE), mientras que la precisión global es la P=P(TRUE|TRUE)*P(real TRUE) + P(FALSE|FALSE)*P(real FALSE). Así que esto depende mucho de la proporción del valor verdadero en su conjunto de datos. En la práctica, parece que la mejor precisión global se consigue normalmente cuando el punto de corte está cerca de la P(verdadero real).

0 votos

Por lo tanto, el AUC y la mejor precisión global pueden no ser consistentes, dependiendo de la proporción del valor verdadero de su conjunto de datos. En su caso, parece que uno de los clasificadores se centra más en la sensibilidad mientras que el otro en la especificidad. Y en su conjunto de datos actual, la P(TRUE) no es del 50%. Por lo tanto, la sensibilidad y la especificidad contribuyen a la precisión general con un peso diferente. En la práctica, el ROC puede darnos más información, y nos gustaría elegir el clasificador caso por caso. Por ejemplo, el clasificador de spam puede centrarse más en P(no spam|no spam) para evitar que se pierdan correos electrónicos importantes.

6voto

Jack Puntos 18

¿Es el AUC una métrica realmente útil?

Yo diría que el coste esperado es una medida más apropiada.

Entonces tendría un coste A para todos los falsos positivos y un coste B para todos los falsos negativos. Podría ser fácilmente que la otra clase sea relativamente más cara que la otra. Por supuesto, si se tienen costes para la clasificación de falsos en los distintos subgrupos, la métrica sería aún más potente.

Si se traza el punto de corte en el eje de abscisas y el coste esperado en el eje de ordenadas, se puede ver qué punto de corte minimiza el coste esperado.

Formalmente se tiene una función de pérdida Loss(cut-off|data,cost) que se intenta minimizar.

4 votos

El coste esperado sólo puede evaluarse si se conocen los costes de los falsos positivos y de los falsos negativos, que no son necesarios para el cálculo del AUC, que es un buen estadístico para utilizar si los costes son desconocidos o variables.

6voto

Ling Ma Puntos 101

Como todas las respuestas han sido publicadas: ROC y accuracy son fundamentalmente dos conceptos diferentes.

En general, ROC describe el poder discriminativo de un clasificador independiente de la distribución de las clases y de los costes de error de predicción desiguales (coste de los falsos positivos y de los falsos negativos).

Métrica como accuracy se calcula a partir de la distribución de clases de test dataset o cross-validation pero esta proporción puede cambiar cuando se aplique el clasificador a los datos de la vida real, porque la distribución de clases subyacente se ha modificado o se desconoce. Por otro lado, TP rate y FP rate que se utilizan para construir AUC no se verá afectado por el cambio de distribución de la clase.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X