Soy consciente del concepto de sobreajuste en el aprendizaje automático. El principal consejo para lidiar con ello, usualmente es la regularización.
¿Hay algún otro consejo práctico para evitar la sobrecarga?
Soy consciente del concepto de sobreajuste en el aprendizaje automático. El principal consejo para lidiar con ello, usualmente es la regularización.
¿Hay algún otro consejo práctico para evitar la sobrecarga?
El principal consejo para enfrentarlo, por lo general es la regularización. Es ¿hay otros consejos prácticos para evitar el exceso de equipamiento?
Pensé que lo que realmente preguntabas era cuál es la relación entre la regularización y la sobreadaptación.
La respuesta es que las estrategias diseñadas para reducir el exceso de ajuste o el error de la prueba se conocen colectivamente como regularización. Así que pensé que la respuesta corta a tu pregunta es un enfático "no".
Y aquí están algunas estrategias de regularización enumeradas en el Capítulo 7 de la Libro de aprendizaje profundo :
Parámetros de las penalizaciones de la norma
Las penalidades de la norma como la optimización limitada
Aumento del conjunto de datos
Robustez del ruido
Aprendizaje semisupervisado
Aprendizaje multitarea
Parada temprana
Vinculación de parámetros y compartición de parámetros
La escasa representación
Embolsado y otros métodos de ensamblaje
Abandono
Entrenamiento de la adversidad
La distancia de la tangente, el puntal de la etiqueta, y el clasificador de la etiqueta del múltiple
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.