Sé que para acceder al rendimiento del clasificador tengo que dividir los datos en conjunto de entrenamiento/prueba. Pero leyendo esto :
Cuando se evalúan diferentes ajustes ("hiperparámetros") para los estimadores como el ajuste C que debe establecerse manualmente para una SVM, sigue existiendo de sobreajuste en el conjunto de pruebas, ya que los parámetros pueden de prueba, ya que los parámetros pueden ajustarse hasta que el estimador funcione de forma óptima. De este modo, el conocimiento de prueba puede "filtrarse" en el modelo y las métricas de evaluación ya no de evaluación ya no informan sobre el rendimiento de la generalización. Para resolver este problema otra parte del conjunto de datos se puede mantener como un "de validación": el entrenamiento se lleva a cabo en el conjunto de entrenamiento, tras lo cual la evaluación se realiza en el conjunto de validación. Después, la evaluación se realiza en el conjunto de validación, y cuando el experimento Cuando el experimento parece tener éxito, la evaluación final puede realizarse en el conjunto de pruebas.
Veo que se introduce otro (tercer) conjunto de validación que se justifica por el sobreajuste del conjunto de prueba durante el ajuste de los hiperparámetros.
El problema es que no puedo entender cómo puede aparecer este sobreajuste y, por tanto, no puedo entender la justificación del tercer conjunto.