Me refiero a la familia de las técnicas de estimación como Emv, menos plazas, etc., que una l2 penalizer/regularizer puede ser añadido. No estoy interesado en la NHST, pero sólo de estimación (es decir, de algún efecto causal o asociación).
La manera en que yo veo es que la adición de un penalizer plazo no causar un sesgo (aunque Emv son a menudo ya parcial...), pero hay más ganancias:
- el estimador es todavía consistente,
- el estimador tiene menor varianza,
- el estimador puede tratar con el co-linealidad y problemas de separación,
- permite una cierta expresión de antes de conocimientos1
Por supuesto, la adición de demasiado grande de un penalizer significativamente el sesgo de los resultados, pero un profesional debe saber un razonable valor (y probablemente decidido de antemano).
Lo que me estoy perdiendo? ¿Por qué debería no siempre se agrega un pequeño penalizer a mi MLE modelos? Son mis intervalos de confianza (realmente no puedo llamar intervalos de confianza más...) drásticamente roto si añado un penalizer?
1 Sin ir completo Bayesiano, la adición de una pequeña penalizer dice el modelo de "yeaaaa, 1e18 no es un valor probable".