Dos alternativas a la regularización:
- Tengo muchas, muchas observaciones
- Utilizar un modelo más sencillo
Geoff Hinton (coinventor de la retropropagación) contó una vez la historia de unos ingenieros que le dijeron (parafraseando en gran medida): "Geoff, no necesitamos la caída en nuestras redes profundas porque tenemos muchos datos". Y su respuesta fue: "Bueno, entonces deberíais construir redes aún más profundas, hasta que son sobreajuste, y luego utilizar el abandono". Dejando a un lado los buenos consejos, aparentemente se puede evitar la regularización incluso con redes profundas, siempre y cuando haya suficientes datos.
Con un número fijo de observaciones, también se puede optar por un modelo más sencillo. Probablemente no necesite la regularización para estimar un intercepto, una pendiente y una varianza de error en una regresión lineal simple.
3 votos
"Grandes conjuntos de datos" puede significar muchas observaciones, muchas variables o ambas cosas, y la respuesta puede depender del número de observaciones y variables.
0 votos
¿Por qué no utilizar la regularización de normas? En el caso de las redes neuronales, hay un abandono
4 votos
La ventaja de la regularización es que es computacionalmente barata. Los métodos de ensamblaje, como el bagging y el boosting (etc.), combinados con métodos de validación cruzada para el diagnóstico del modelo son una buena alternativa, pero será una solución mucho más costosa.
1 votos
Esto puede ser de interés: stats.stackexchange.com/a/161592/40604
1 votos
Para añadir al comentario de Digio: la regularización es barata en comparación con el bagging/boosting, pero sigue siendo cara en comparación con la alternativa de "no regularización" (véase, por ejemplo, este post de Ben Recht habla de cómo la regularización dificulta el aprendizaje profundo ). Si tiene un gran número de muestras, ninguna regularización puede funcionar bien por mucho menos. El modelo todavía puede generalizar bien como @hxd1001 señala )