Andrew Más define la ganancia de información como:
$IG(Y|X) = H(Y) - H(Y|X)$
donde $H(Y|X)$ es el condicional de la entropía. Sin embargo, Wikipedia llamadas por encima de la cantidad de información mutua.
Wikipedia por otro lado define la ganancia de información como el de Kullback–Leibler divergencia (aka información divergencia o relativa de la entropía) entre dos variables aleatorias:
$D_{KL}(P||Q) = H(P,Q) - H(P)$
donde $H(P,Q)$ se define como la cruz de la entropía.
Estas dos definiciones parecen ser incompatibles el uno con el otro.
También he visto otros autores hablando de dos conceptos relacionados, a saber, el diferencial de la entropía y la información relativa ganancia.
¿Cuál es la definición precisa o la relación entre estas cantidades? Hay un buen libro de texto que cubre todos ellos?
- La obtención de información
- La información mutua
- Cruz de la entropía
- La entropía condicional
- El diferencial de la entropía
- La obtención de información relativa