En la validación cruzada de k pliegues, los datos se dividen en k pliegues, luego se toman k-1 pliegues para el entrenamiento y 1 pliegue para la validación.
Este proceso se repite k veces, tomando cada vez un pliegue diferente para la validación, por lo que terminamos con k modelos diferentes y k resultados diferentes (aunque los resultados deberían ser muy similares si todo va bien)
Esto es muy útil para hacerse una idea del rendimiento medio de un clasificador. Algunos pliegues de validación pueden contener valores atípicos que darán resultados extremos, pero la repetición para diferentes conjuntos de validación resuelve este problema.
Ahora mi pregunta:
Al final quiero un modelo final que es el que utilizaré para obtener los resultados finales en el conjunto de pruebas, y el que acabaré utilizando en producción. Dado que en k-fold crossval he entrenado k modelos diferentes, ¿cuál debo utilizar como modelo "final"?
- ¿El que obtiene mejores resultados?
- ¿Debo volver a entrenar un modelo, esta vez utilizando como entrenamiento tanto el conjunto de entrenamiento como el de validación?
¿Cómo puedo pasar de una validación cruzada a un modelo final?