Tengo una pregunta específica acerca de la validación en la máquina de la investigación del aprendizaje.
Como sabemos, el aprendizaje de la máquina régimen pide a los investigadores para entrenar a sus modelos en los datos de entrenamiento, seleccione de modelos candidatos por el conjunto de validación, y la precisión del informe sobre el conjunto de prueba. En un riguroso estudio, la prueba de conjunto sólo puede ser utilizado una vez. Sin embargo, nunca puede ser el escenario de la investigación, porque tenemos que mejorar nuestro rendimiento hasta que la exactitud de la prueba es mejor que el estado de la técnica de los resultados antes de que podamos publicar (o incluso enviar) un papel.
Ahora viene el problema. Digamos que el 50% es la mayoría de los estado-of-the-art resultado, y mi modelo general puede alcanzar el 50--51 precisión, lo que es mejor, en promedio.
Sin embargo, mi mejor precisión de validación (52%) de los rendimientos de un muy bajo nivel de exactitud de la prueba, por ejemplo, el 49%. Entonces, tengo que informar, el 49% de mi rendimiento general si no puedo mejorar aún más la validación de la acc, que creo que es de los que no hay esperanza. Esto realmente me impide estudiar el problema, pero no importa a mis compañeros, porque ellos no ven el 52% acc, que creo que es un valor atípico.
Así que, ¿cómo la gente suele hacer en sus investigaciones?
p.s. k-fold de validación es de ninguna ayuda, ya que la misma situación puede ocurrir.