¿Cómo se puede utilizar anidada de la validación cruzada para la selección de modelo?
Por lo que he leído en línea, anidada CV funciona de la siguiente manera:
- No es el interior de CV bucle, donde nos puede llevar a cabo una cuadrícula de búsqueda (por ejemplo, correr K-fold para cada modelo disponible, por ejemplo, la combinación de hyperparameters/características)
- No es el exterior CV bucle, donde se mide el rendimiento de la modelo que ganó en el pliegue interno, en externo independiente veces.
Al final de este proceso nos encontramos con $K$ modelos ($K$ el número de pliegues en el bucle externo). Estos modelos son los que ganó en la red de búsqueda en el interior de la CV, y que son probablemente diferentes (por ejemplo, SVMs con diferentes kernels, capacitados, con posibilidad de diferentes características, dependiendo de la cuadrícula de búsqueda).
¿Cómo elegir un modelo de este resultado? Me parece que seleccionar el mejor modelo de los $K$ ganar modelos no sería una comparación justa, ya que cada modelo fue entrenado y probado en diferentes partes del conjunto de datos.
Entonces, ¿cómo puedo utilizar anidada CV para el modelo de selección?
También he leído los hilos discutiendo cómo anidada de selección de modelo es útil para analizar el proceso de aprendizaje. ¿Qué tipos de análisis /cheques puedo hacer con los resultados que obtengo desde el exterior K pliegues?