Creo que le falta algo todavía en su comprensión de la finalidad de la validación cruzada.
Veamos algo de la terminología de la recta, en general, cuando decimos 'un modelo' nos referimos a un método en particular para describir cómo algunos de los datos de entrada se relaciona con lo que estamos tratando de predecir. No nos referimos generalmente a instancias particulares de ese método como los diferentes modelos. Así que se podría decir "tengo un modelo de regresión lineal', pero no llamaría a dos conjuntos diferentes de la formación de los coeficientes de los diferentes modelos. Al menos no en el contexto de selección de modelo.
Así que, cuando usted K-fold cross validation, que son la prueba de lo bien que su modelo es capaz de recibir capacitación por parte de algunos de los datos y predecir los datos que no ha visto. Utilizamos la validación cruzada para esto, porque si se entrena usando todos los datos que tiene, no tiene la izquierda para las pruebas. Usted puede hacer esto una vez, decir mediante el 80% de los datos para entrenar y 20% para probar, pero ¿y si el 20% de pasar a recoger a prueba pasa a contener un montón de puntos que son especialmente fáciles (o muy difícil) para predecir? No le han llegado con la mejor estimación posible de los modelos de capacidad para aprender y predecir.
Queremos utilizar todos los datos. Así que para continuar con el ejemplo anterior de un 80/20 split, le iba a hacer 5 veces validación cruzada por el modelo de formación de 5 veces en el 80% de los datos y las pruebas en un 20%. Nos aseguramos de que cada punto de datos termina en el 20% de la prueba de establecer exactamente una vez. Por lo tanto, hemos utilizado todos los datos que tenemos para contribuir a una comprensión de cómo nuestro modelo lleva a cabo la tarea de aprendizaje a partir de algunos datos y la predicción de algunos de los nuevos datos.
Pero el propósito de la validación cruzada no es nuestro modelo final. No utilizamos estos 5 instancias de nuestro modelo de aprendizaje para hacer real la predicción. Para que queremos usar todos los datos que han de venir con el mejor modelo posible. El propósito de la validación cruzada es la comprobación del modelo, no de la construcción de modelos.
Ahora, digamos que tenemos dos modelos, decir que un modelo de regresión lineal y de una red neuronal. ¿Cómo podemos decir que modelo es mejor? Podemos hacer K-fold cross-validation y ver cual resulta mejor en la predicción de la prueba de los puntos de ajuste. Pero una vez que hemos utilizado de validación cruzada para seleccionar el mejor desempeño del modelo, podemos entrenar a ese modelo (ya sea de la regresión lineal o de la red neuronal) en todos los datos. No utilizamos el modelo actual instancias hemos entrenado durante la validación cruzada para nuestro último modelo predictivo.
Tenga en cuenta que hay una técnica que se llama bootstrap agregación (generalmente abreviado a "embolsado") que lo hace de un modo de uso modelo de casos producidos en una forma similar a la validación cruzada para construir un conjunto modelo, sino que es una técnica avanzada más allá del alcance de su pregunta aquí.