Actualmente estoy construyendo un modelo basado en el aprendizaje profundo.
Para ajustar mis hiperparámetros estoy utilizando la validación cruzada en los conjuntos de datos de entrenamiento/validación. De este modo, debería obtener una mejor estimación de la capacidad de generalización de mi modelo.
Ahora, me queda la elección de cómo entrenar el modelo final que se puede desplegar. He pensado en las siguientes posibilidades:
- Entrenar en el conjunto de datos de entrenamiento/validación completo y utilizar el conjunto de prueba como "nueva" validación
- Entrenamiento sin validación del conjunto de pruebas: ¿cómo puedo saber que no estoy sobreajustando después de un número n de épocas?
- Utilizar el mejor modelo de la validación cruzada inicial (búsqueda de hiperparámetros) y entrenar durante más tiempo
- Validación cruzada en el conjunto de datos completo de entrenamiento/validación/prueba y seleccionar un modelo de allí
- ¿Otras opciones?
En el aprendizaje automático normal seleccionaría la opción 2. - pero en comparación con el aprendizaje profundo la mayoría de los modelos no tienen el problema de sobreajuste tanto.
Estoy un poco confundido sobre cómo manejar este problema y me encantaría recibir algunos de sus comentarios. Gracias de antemano.