Hay muchas técnicas regularización, no es práctico para probar todas las combinaciones:
- l1/l2
- max norma
- deserción escolar
- la detención temprana
- ...
Parece que la mayoría de las personas están felices con una combinación de deserción de + la detención temprana: hay casos donde el uso de otras técnicas sentido?
Por ejemplo, si desea una escasa modelo puede agregar un poco de l1 de regularización. Aparte de eso, hay fuertes argumentos en favor de la aspersión en otras técnicas regularización?
Yo sé acerca de la no-libre-almuerzo teorema, en teoría me tendría que probar todas las combinaciones de técnicas regularización, pero no vale la pena intentarlo si es que casi nunca produce un aumento significativo del rendimiento.