He estado trabajando en la construcción de algunas pruebas estadísticas basadas en el KL-Divergencia,
\begin{equation} D_{KL}(p \| q) = \sum_i p(i) \log\left(\frac{p(i)}{q(i)}\right), \end{equation}
Y terminé con un valor de $1.9$ para mi distribuciones. Tenga en cuenta que las distribuciones tienen el apoyo de $140$niveles de K, por lo que no creo trazando fuera de toda distribuciones sería razonable aquí.
Lo que me pregunto es, ¿es posible tener un KL-Divergencia mayor que 1? Muchas de las interpretaciones que he visto de KL-Divergencia se basa en un límite superior de 1. Si se puede ir mayor que 1, lo que es la interpretación de KL-Divergencia más allá de 1?
Edit: sé que es una mala elección de referencia, pero el artículo de la Wikipedia sobre la Divergencia KL sugiere que "una de Kullback–Leibler divergencia de 1 indica que las dos distribuciones se comportan de una manera diferente que la expectativa de recibir la primera distribución se aproxima a cero." Yo había pensado que estaba implícito que esto significaba que el KL-Divergencia fue acotada arriba por 1, pero es evidente que esto es un error en el artículo.