11 votos

Puedo normalizar KL-divergencia de a $\leq 1$?

El Kullback-Leibler divergencia tiene una fuerte relación con el intercambio de información, y la información mutua tiene un número de normalizado variantes. Hay algunos similares, la entropía como el valor que puedo utilizar para normalizar KL-divergencia tales que la normalizado KL-divergencia está acotada arriba por 1 (y por debajo de 0)?

5voto

Raiana Puntos 221

En el caso más general de la clase de las distribuciones de su multiplicativo enfoque de normalización no es posible porque uno puede trivialmente seleccione la comparación de la densidad a ser cero en algún intervalo que conduce a una desenfrenada divergencia. Por lo tanto su enfoque sólo tiene sentido positivo densidades, o donde ambos comparten el mismo soporte (tal vez densidades de la misma clase?)

En su lugar, usted podría considerar la normalización a través de una transformación no lineal como $1-\exp(-D_{KL})$.

2voto

abatishchev Puntos 271

El KL sólo está definida para las distribuciones de haber compatible compatible... sin Embargo, es cierto que uno puede encontrar distribuciones que tienen infinitas KL divergencia.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X