En el aprendizaje de máquina podemos utilizar el área bajo la curva ROC (a menudo abreviado de las AUC, o AUROC) para resumir lo bien que un sistema puede discriminar entre dos categorías. En la teoría de detección de señal a menudo el d' (índice de sensibilidad) se utiliza para un propósito similar. Los dos están estrechamente relacionados, y creo que son equivalentes entre sí, si ciertos supuestos que están satisfechos.
El d' de cálculo se presenta generalmente basado en suponiendo que las distribuciones normales para la señal de distribuciones (ver wikipedia enlace de arriba, por ejemplo). La curva ROC de cálculo no hacer esta suposición: es aplicable a cualquier clasificador que genera un continuo de valores criterio de decisión que se pueden umbrales concretos.
Wikipedia dice que d' es equivalente a 2 * AUC - 1. Esto parece correcta si la hipótesis de que ambos están satisfechos; pero si los supuestos no son de la misma no es una verdad universal.
Es justo para caracterizar la diferencia en supuestos como el "AUC hace menos supuestos sobre las distribuciones subyacentes"? O es d' en realidad sólo la aplicación más amplia de las AUC, pero es práctica común que las personas con d' tienden a utilizar el cálculo que se supone normal de las distribuciones? Hay otras diferencias en los supuestos subyacentes que me he perdido?