Me gustaría saber cómo interpretar una diferencia de valores de medida f. Sé que la medida F es una media equilibrada entre la precisión y la memoria, pero me pregunto sobre el significado práctico de una diferencia en las medidas F.
Por ejemplo, si un clasificador C1 tiene una precisión de 0,4 y otro clasificador C2 una precisión de 0,8, entonces podemos decir que C2 ha clasificado correctamente el doble de ejemplos de prueba en comparación con C1. Sin embargo, si un clasificador C1 tiene una medida F de 0,4 para una determinada clase y otro clasificador C2 una medida F de 0,8, ¿qué podemos afirmar sobre la diferencia de rendimiento de los 2 clasificadores? ¿Podemos decir que C2 ha clasificado X más instancias correctamente que C1?
Lo siento si es una pregunta estúpida...
2 votos
No estoy seguro de que se pueda decir mucho, ya que la medida F es función tanto de la precisión como de la recuperación: es.wikipedia.org/wiki/F1_score . Sin embargo, se puede hacer el cálculo y mantener constante una de ellas (la precisión o el recuerdo) y decir algo sobre la otra.