Processing math: 100%

20 votos

Uso de la información de Fisher para acotar la divergencia KL

¿Es posible utilizar Información de Fisher en p para obtener un límite superior útil en KL(q,p) ?

KL(q,p) se conoce como divergencia de Kullback-Liebler y se define para distribuciones discretas sobre k resultados de la siguiente manera:

KL(q,p)=kiqilogqipi

El enfoque más obvio es utilizar el hecho de que 1/2 x' I x es la expansión de Taylor de segundo orden de KL(p+x,p) donde I es la matriz de información de Fisher evaluada en p e intentar utilizarla como límite superior (derivación de la expansión del libro de Kullback, páginas 26 , 27 , 28 ).

Si p(x,t) da la probabilidad de observación x en una distribución discreta parametrizada por el vector de parámetros t La matriz de información de Fisher se define del siguiente modo

Iij(t)=xp(x,t)(tilogp(x,t))(tjlogp(x,t))

donde la suma se toma sobre todas las observaciones posibles.

A continuación se muestra una visualización de conjuntos de k=3 distribuciones multinomiales para algunas p (marcados como puntos negros) en los que se cumple este límite. A partir de los gráficos parece que este límite funciona para conjuntos de distribuciones que están "entre" p y la distribución de entropía "más lejana" 0.

(fuente)

Motivación: Teorema de Sanov limita la probabilidad de algún evento en términos de la divergencia KL del resultado más probable... pero la divergencia KL es difícil de manejar y sería mejor tener un límite más simple, especialmente si se puede expresar fácilmente en términos de parámetros de la distribución con la que estamos trabajando

4voto

Gabe K Puntos 1086

No estoy seguro de si esto todavía es de interés para usted, pero creo que es posible obtener algunos límites razonables si usted está de acuerdo con dejar caer el factor de 12 . Este es mi trabajo, que puede reforzarse y perfeccionarse.

Comenzamos tomando dos funciones de masa de probabilidad p y q que denotamos como pi y qi . Definimos la función f como fi=qipi . En lugar de hacer nada del otro mundo, consideraremos el segmento de recta pi(t)=pi+tfi . Desde f tiene masa total cero, el pi(t) son distribuciones de probabilidad bien definidas que forman una línea recta en el simplex de probabilidad. Podemos ver que pi(0)=pi y pi(1)=qi

Ahora tomamos la serie de Taylor para la divergencia de Kullback-Liebler, expandida en t=0 . Esto implicará la métrica de Fisher, pero deberíamos ampliarla más para obtener mejores resultados.

Cuando ampliemos (pi+tfi)log(pi+tfipi) obtenemos lo siguiente:

fit+f2it22pif3it36p2i+f4it412p3if5it520p4i+f6it630p5i+O(t7)

Cuando sumamos i el primer término desaparecerá y podremos factorizar un término de la métrica de Fisher a partir de todos los demás. Utilizaré un signo integral para sumar i ya que es sugerente de lo que debería ocurrir en el caso continuo.

fit+f2it22pif3it36p2i+f4it412p3idi=f2it2pi(12fit6pi+f2it212p2i)di

Comprobamos que los términos entre paréntesis del lado derecho pueden simplificarse. Fijamos xi=fitpi y podemos deducir lo siguiente:

(12xi6+xi12)=k=0(1)kxki(k+1)(k+2)=(xi+1)log(xi+1)xix2i

Esto no debería sorprender; está muy relacionado con la fórmula original de la divergencia de Kullbeck-Liebler. De hecho, no necesitábamos series de Taylor salvo para saber que había que restar el molesto tfi término. Por lo tanto, no tenemos que preocuparnos por la convergencia, esta manipulación es válida sin la serie. Por lo tanto,

KL(p(t),p)=f2it2pi((xi+1)log(xi+1)xix2i)di

Para que esto tenga sentido, debemos asegurarnos de que xi=fitpi1 . Sin embargo, fipi=qipi11 . Aún mejor, resulta que (xi+1)log(xi+1)xix2i1 en su dominio. Con esto, hemos terminado, porque esto implica KL(q,p)<Ip(f,f).

Esto implica que podemos acotar la divergencia de Kullback-Liebler mediante la métrica de información de Fisher evaluada en un vector concreto f . Como la divergencia KL puede hincharse, vale la pena ver qué ocurre en este caso. Cuando esto ocurre, el vector tangente f en p es grande en la métrica de Fisher.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X