9 votos

Entender la relación de la norma de $L^1$ y la distancia de la variación total de las medidas de la probabilidad, la varianza atado en ella

Estoy tratando de encontrar un límite para la varianza de una distribución arbitraria $f_Y$ dado un salto de una de Kullback-Leiber divergencia a partir de un valor cero Gauss a $f_Y$, como he explicado en esta relacionada con la pregunta. A partir de la página 10 de este artículo, me parece que:

$$\frac{1}{2}\left(\int_{-\infty}^{\infty}|p_Z(x)-p_Y(x)|dx\right)^2 \leq D(p_Z\|p_Y)$$

Tengo dos preguntas:

1) ¿Cómo esta? El lado izquierdo es de alguna manera relacionados con el total de la variación de la distancia, que es $\sup\left\{|\int_A f_X(x)dx-\int_A f_Y(x)dx|:A \subset \mathbb{R}\right\}$ según el artículo de la wikipedia, pero no veo una conexión. Alguien puede aclarar?

2) la Sección 6, en la página 10 del mismo artículo parece hablar acerca de la variación de los límites, pero yo no lo entiendo... alguien Puede "traducir" que con el lenguaje, que alguien con un curso a nivel de posgrado en la probabilidad puede entender? (No he tomado teoría de la medida, por desgracia.)

3voto

Casper Andersen Puntos 174

1) Echale un lema 11.6.1 en elementos de teoría de la información , de Thomas y cubierta.

2) la LHS es esencialmente la variación total entre probabilidad medidas $p_Z$ y $p_Y$ (ver aquí). Creo que "límites de la variación" literalmente significa límites en la variación total entre las medidas de probabilidad, tal como se indica en el lema p. 11.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X