La integral que tienes es la Divergencia de Kullback-Leibler entre las distribuciones P y Q, $D_{KL}(P \parallel Q)$ . Esta divergencia es una especie de "distancia" entre las dos distribuciones. La razón por la que "distancia" está entre comillas es porque esta divergencia no es simétrica y, por tanto, no es una métrica. Sin embargo, una forma útil de pensar en la divergencia $D_{KL}(P \parallel Q)$ es que es la pena que se paga por confundir la distribución $P$ como distribución $Q$ . Esta afirmación puede precisarse utilizando la teoría de la información. Si $D_{KL}(P \parallel Q)$ es infinito, es porque las dos distribuciones son muy distintas entre sí que se incurre en una penalización infinita por confundir $P$ como $Q$ . Esto puede ocurrir, por ejemplo, cuando la distribución $P$ puede producir valores que la distribución $Q$ nunca puede hacer - en este caso, confundir $P$ como $Q$ es realmente un grave error. Dejaré que interpretes esto en términos de la integral anterior para derivar la condición bajo la cual la divergencia es infinita.
Actualización : Añadiendo más información en respuesta al comentario de Marco más abajo. Se hizo demasiado pesado para dejarlo como comentario: Dado cualquier $M>0$ y cualquier distribución $P$ podemos encontrar $Q$ tal que $D_{KL}(P \parallel Q) > M$ . Pero tenga en cuenta que como $M$ crece, tenemos que cambiar de forma adaptativa $Q$ para que la divergencia sea mayor que $M$ . Esto es diferente a decir $D_{KL}(P \parallel Q) = \infty$ para un determinado $P$ , $Q$ que es lo que plantea la pregunta. Creo que esto sólo puede ocurrir si el apoyo de $P$ incluye puntos que no están en el apoyo de $Q$ .