Mis preguntas son:
- ¿Está garantizado que los modelos lineales generalizados (MLG) convergen a un máximo global? En caso afirmativo, ¿por qué?
- Además, ¿qué restricciones se aplican a la función de enlace para garantizar la convexidad?
Según tengo entendido, los MLG maximizan una función de verosimilitud altamente no lineal. Por lo tanto, me imagino que hay varios máximos locales y el conjunto de parámetros que convergen a depende de las condiciones iniciales para el algoritmo de optimización. Sin embargo, después de investigar un poco, no he encontrado ninguna fuente que indique que existen varios máximos locales. Además, no estoy muy familiarizado con las técnicas de optimización, pero sé que el método Newton-Raphson y el algoritmo IRLS son muy propensos a los máximos locales.
Por favor, explíquelo si es posible tanto sobre una base intuitiva como matemática.
EDIT: dksahuji respondió a mi pregunta original, pero quiero añadir la pregunta de seguimiento [ 2 ] arriba. ("¿Qué restricciones hay en la función de enlace para asegurar la convexidad?")