He comprendido los conceptos principales de la sobreadaptación y la inadaptación, aunque algunas de las razones por las que se producen no me resulten tan claras.
Pero lo que me pregunto es: ¿no es "mejor" el sobreajuste que el infraajuste?
Si comparamos lo bien que lo hace el modelo en cada conjunto de datos, obtendríamos algo así:
Sobreajuste: Entrenamiento: bueno vs. Prueba: malo
El desajuste: Entrenamiento: malo vs. malo Prueba: mala
Si echamos un vistazo a los resultados de cada escenario en los datos de entrenamiento y de prueba, parece que para el escenario de sobreajuste, el modelo funciona al menos bien en los datos de entrenamiento.
El texto en negrita es mi intuición de que, cuando el modelo lo hace mal en los datos de entrenamiento, también lo hará en los datos de prueba, que en general me parecen peores.