Esta es una pregunta que he publicado aquí algún tiempo atrás. y me gustaría saber si puedes pensar en más soluciones para que a partir de la ML perspectiva? Por desgracia, creo que no se puede utilizar la prueba de McNemar test debido al pequeño tamaño de la muestra (por lo tanto, los valores no están distribuidos normalmente)
¿Cómo puedo comparar si un clasificador de salida es significativamente diferente?
Tengo un conjunto de datos relativamente pequeño que estoy tratando de clasificar. Mi conjunto de entrenamiento se compone de 24 ítems que provienen de dos grupos diferentes, 12 elementos de cada grupo. Cada elemento tiene dos propiedades. Tengo 12 nuevos elementos que me gustaría clasificar basándose en este conjunto de entrenamiento. (no estoy seguro si los números son tan importantes para mi pregunta... )
He probado con 5 diferentes clasificadores, y su clasificación por lo que el resultado es el siguiente:
1, 1, 0, 0, 0, 1, 1, 0, 0, 1, 0, 0
0, 0, 0, 1, 0, 0, 1, 0, 0, 0, 1, 1
0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1
0, 0, 1, 1, 0, 1, 1, 1, 0, 0, 0, 1
0, 0, 0, 1, 0, 0, 1, 0, 0, 0, 0, 1
¿Cómo puedo comprobar si los resultados son significativamente diferentes unos de otros?