Entiendo bastante bien la divergencia de Kullback-Leibler cuando se trata de una distribución de probabilidad sobre una sola variable. Sin embargo, actualmente estoy tratando de enseñarme métodos variacionales y el uso de la divergencia KL en probabilidades condicionales me está atrapando. La fuente con la que estoy trabajando está aquí .
En concreto, el autor representa la divergencia KL de la siguiente manera:
$$KL(Q_ (Z|X)||P(Z|X)) = \sum_{zZ} q_ (z|x) log\frac{q_ (z|x)}{p(z|x)}$$
La confusión se produce en la suma de todos los elementos. $Z$ . Dado que $z \in Z$ y $x \in X$ En este caso, yo habría esperado (por analogía con la entropía condicional) una doble suma de la forma
$$KL(Q_ (Z|X)||P(Z|X)) = \sum_{zZ} \sum_{xX} q_ (z|x) log\frac{q_ (z|x)}{p(z|x)}$$
Por lo demás, me parece que el KL sólo se calcula para una muestra de $X$ . ¿Me estoy perdiendo algo básico aquí? Y si mis intuiciones no son correctas, cualquier consejo para volver a encarrilarlas sería útil; estoy aprendiendo yo mismo estas cosas, así que no tengo el beneficio de la instrucción formal.