Algunos de mis colegas han presentado recientemente un trabajo donde calibrar impulsado árboles de regresión (BRT) modelos en pequeños conjuntos de datos ($n= 30$). Se validan los modelos de uso de leave-one-out cross validation (LOOCV) usando R2, RMSPE y DPR índices. También se proporcionaron estos índices calculados por la formación y la validación del modelo sobre el conjunto de datos completo. El R2, RMSPE y la RPD de los valores obtenidos a través de LOOCV eran casi exactamente igual a la R2, RMSPE y la RPD de los valores obtenidos a la hora de validar en el conjunto de datos de entrenamiento.
Mis preguntas son :
Es un resultado esperado para LOOCV en BRT?
Es esto debido a que el BRT es relativamente insensible a los valores atípicos (y a personas solteras?) eso sin contar con que un individuo durante LOOCV no hacer una diferencia, proporcionando casi similar calibrado de los modelos con las mismas mediciones de desempeño de los individuos excluidos?
En ese caso, ¿LOOCV para el BRT tiene ningún sentido, en comparación con el repetido k veces CV con $k < n$?
Gracias de antemano