4 votos

¿Por qué utilizar la divergencia KL como pérdida frente a la MLE?

Me he topado varias veces con esta afirmación

Maximizar la verosimilitud equivale a minimizar la divergencia KL

(Fuentes: Divergencia de Kullback-Leibler y Máxima verosimilitud como minimización de la disimilitud entre la distribución empírica y la distribución modelo. )

Me gustaría saber, en aplicaciones como VAE, ¿por qué utilizar la divergencia KL en lugar de la MLE? ¿En qué aplicaciones elegiría una sobre la otra? ¿Y alguna razón específica para ello dado que ambas son equivalentes?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X