1 votos

Compromiso entre la precisión del entrenamiento y la de las pruebas

Digamos que estoy entrenando una red neuronal para la clasificación de imágenes de gatos y perros, en un conjunto de datos de 1000, por ejemplo. Entreno la red con 800 ejemplos y luego la pruebo con los 200 ejemplos restantes. 94% y 73 --> 21% de diferencia

La aplicación de la regularización debería corregir hasta cierto punto esta diferencia de precisión entre el entrenamiento y la prueba. ¿Sería correcto suponer que existe siempre la posibilidad de una compensación entre la precisión del entrenamiento y la precisión de la prueba, incrementando la cantidad de regularización que se aplica a la red?

En otras palabras, ¿es correcto suponer que hay existe una configuración específica para mis hiperparámetros de regularización, que permitiría reducir "casi completamente" esa diferencia del 21%, a algo así como una diferencia del 1% o 2%? A costa de reducir la precisión del entrenamiento, obteniendo por ejemplo 79%-77% precisión de entrenamiento y prueba.

He encontrado este otro problema similar precisión de validación/formación y sobreajuste , sin embargo no encuentro ninguna de las respuestas lo suficientemente acertada para la pregunta en concreto.

2voto

d10e Puntos 41

La diferencia de precisión entre los datos de entrenamiento y los de prueba se debe al ajuste:

  1. ruidos en los datos del tren (de ahí el sobreajuste)
  2. las características sólo existen en los datos del tren

La regularización puede controlar la adaptación a los ruidos.

Pero para el segundo punto, es posible que necesite un proceso como la selección de características.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X