He estado haciendo algo de aprendizaje automático, y he estado usando la validación cruzada de k-fold para evaluar el rendimiento de la generalización del algoritmo. He probado la validación cruzada de k-fold con k = 5 y k = 200 y obtengo resultados muy diferentes para la clasificación de la Máquina Vectorial de Apoyo.
k SVM accuracy
-----------------
5 75%
200 94%
Esto parece una gran diferencia en la precisión causada por el cambio en el número de divisiones que estamos haciendo para la validación cruzada del pliegue K. ¿Hay alguna razón para esto? Parece que no puedo encontrar ninguna referencia en los estudios que se han hecho investigando los efectos de usar diferentes valores de k. Obviamente, el valor k que decido usar en mi informe da una impresión completamente diferente de la calidad de mi clasificador.