Sé que realizar el ajuste de hiperparámetros fuera de la validación cruzada puede dar lugar a estimaciones sesgadas de la validez externa, porque el conjunto de datos que se utiliza para medir el rendimiento es el mismo que se utilizó para ajustar las características.
Lo que me pregunto es lo grave que es este problema . Puedo entender cómo sería realmente malo para la selección de características, ya que esto le da un gran número de parámetros para ajustar. Pero ¿qué pasa si estás usando algo como LASSO (que sólo tiene un parámetro, la fuerza de regularización), o un bosque aleatorio sin selección de características (que puede tener algunos parámetros, pero nada tan dramático como añadir/eliminar características de ruido)?
En estos casos, ¿hasta qué punto puede ser optimista tu estimación del error de formación?
Agradecería cualquier información al respecto: estudios de casos, documentos, anécdotas, etc. Gracias.
EDITAR: Para aclarar no me refiero a estimar el rendimiento del modelo en los datos de entrenamiento (es decir, sin utilizar la validación cruzada en absoluto). Por "ajuste de hiperparámetros fuera de la validación cruzada" me refiero a utilizar la validación cruzada sólo para estimar el rendimiento de cada modelo individual, pero no incluyendo una exterior, segundo bucle de validación cruzada para corregir el sobreajuste dentro del procedimiento de ajuste de hiperparámetros (a diferencia del sobreajuste durante el procedimiento de entrenamiento). Véase, por ejemplo la respuesta aquí .