La divergencia de Kullback-Leibler se utiliza ampliamente en la inferencia variacional, donde se construye un problema de optimización que tiene como objetivo minimizar la divergencia KL entre la distribución objetivo inaccesible P
y un elemento buscado Q
de una clase de distribuciones tratables.
Entonces, la "dirección" de la divergencia KL debe ser elegida de tal manera que la esperanza se tome con respecto a Q
para que la tarea sea factible.
Muchos algoritmos de aproximación (que también se pueden utilizar para ajustar modelos probabilísticos a datos) se pueden interpretar de esta manera. Entre ellos se encuentran Mean Field, (Loopy) Belief Propagation (generalizando hacia adelante-atrás y Viterbi para HMMs), Expectation Propagation, Junction graph/tree, tree-reweighted Belief Propagation y muchos más.
Referencias
- Wainwright, M. J. and Jordan, M. I. Modelos gráficos, familias exponenciales e inferencia variacional, Foundations and Trends® in Machine Learning, Now Publishers Inc., 2008, Vol. 1(1-2), pp. 1-305
- Yedidia, J. S.; Freeman, W. T. & Weiss, Y. Construcción de aproximaciones de energía libre y algoritmos de propagación de creencias generalizados, Information Theory, Transactions on IEEE, IEEE, 2005, 51, 2282-2312
1 votos
Nunca lo he visto utilizado de esa manera. Fuera de su uso en la demostración de resultados teóricos, lo he visto aplicado como una especie de prueba de normalidad tipo bayesiana. Es decir, dado un conjunto de posibles modelos que asumen normalidad en los residuos, podrías usar esta métrica para recopilar razones de probabilidad sobre la hipótesis de que los residuos/errores de pronóstico de los modelos son realmente normales. Esto implica comparar la densidad de normalidad estimada en los residuos con una estimación empírica como kde. En teoría, esto podría ayudar a seleccionar modelos bien especificados ... pero no lo he visto usado en ML.