En mi opinión, la optimización con restricciones es una forma poco óptima de evitar fuertes fluctuaciones en los parámetros de los independientes debido a una mala especificación del modelo. A menudo se "necesita" una restricción cuando la matriz de varianza-covarianza está mal estructurada, cuando hay mucha correlación (no contabilizada) entre independientes, cuando hay aliasing o casi aliasing en los conjuntos de datos, cuando se han dado demasiados grados de libertad al modelo, etc. Básicamente, todas las condiciones que inflan la varianza de las estimaciones de los parámetros harán que un método sin restricciones se comporte mal.
Puedes mirar la optimización restringida, pero creo que primero deberías echar un vistazo a tu modelo si crees que la optimización restringida es necesaria. Esto por dos razones :
- No se puede seguir confiando en la inferencia, ni siquiera en las varianzas estimadas para sus parámetros
- No tienes control sobre la cantidad de sesgo que introduces.
Así que, dependiendo del objetivo del análisis, la optimización restringida puede ser una solución subóptima (estimando puramente los parámetros) o inapropiada (cuando se necesita la inferencia).
Por otro lado, los métodos penalizados (en este caso, las probabilidades penalizadas) están diseñados específicamente para estos casos, e introducen el sesgo de una manera controlada en la que se tiene en cuenta (en su mayor parte). Usando estos, no hay necesidad de ir a los métodos restringidos, ya que los algoritmos de optimización clásicos harán un trabajo bastante bueno. Y con la penalización correcta, la inferencia sigue siendo válida en muchos casos. Así que prefiero optar por un método de este tipo en lugar de poner restricciones arbitrarias que no están respaldadas por un marco inferencial.
Mis 2 centavos, YMMV.