25 votos

¿Cuál es la motivación de la métrica Levy-Prokhorov?

Desde Wikipedia

Dejemos que $(M, d)$ sea un espacio métrico con su álgebra sigma de Borel $\mathcal{B} (M)$ . Dejemos que $\mathcal{P} (M)$ denota la colección de todas las medidas de probabilidad en el espacio medible $(M, \mathcal{B} (M))$ .

Para un subconjunto $A \subseteq M$ definir el $$-neighborhood of $ A $ by $$ A^{{varepsilon} := \ {p \Nen M ~|~ \Nexiste q \Nen A, \Nd(p, q) < \Nvarepsilon \} = \bigcup_{p \Nen A} B_{{varepsilon}} (p). $$ where $ B_{\varepsilon} (p) $ is the open ball of radius $ \N -varepsilon $ centered at $ p$.

La métrica de Lévy-Prokhorov $\pi : \mathcal{P} (M)^{2} \to [0, + \infty)$ se define estableciendo la distancia entre dos medidas de probabilidad medidas de probabilidad $\mu$ y $\nu$ para ser $$ \pi (\mu, \nu) := \inf \left\{ \varepsilon > 0 ~|~ \mu(A) \leq \nu (A^{\varepsilon}) + \varepsilon \ \text{and} \ \nu (A) \leq \mu (A^{\varepsilon}) + \varepsilon \ \text{for all} \ A \in \mathcal{B}(M) \right\}. $$

  1. Me pregunto cuál es el propósito, la motivación y la intuición de la métrica L-P.
  2. ¿Es la siguiente alternativa una métrica razonable o alguna métrica generalizada entre medidas $$ \sup_{A \in \mathcal{B}(M)} |\mu(A) - \nu(A)|? $$ Si sí, ¿es ésta más sencilla y fácil de entender y, por tanto, quizá más útil que la L-P métrica?
  3. Una métrica relacionada entre las funciones de distribución es la La métrica Levy :

    Dejemos que $F, G : \mathbb{R} \to [0, + \infty)$ sean dos funciones de distribución de distribución acumulativa. Defina la distancia de Lévy entre ellas como $$ L(F, G) := \inf \{ \varepsilon > 0 | F(x - \varepsilon) - \varepsilon \leq G(x) \leq F(x + \varepsilon) + \varepsilon \mathrm{\,for\,all\,} x \in \mathbb{R} \}. $$

    Me pregunto cómo imaginar esta parte de la intuición:

    Intuitivamente, si entre los gráficos de $F$ y $G$ se inscriben cuadrados con lados paralelos a los ejes de coordenadas (en los puntos de discontinuidad de un gráfico se añaden segmentos verticales), entonces la longitud de los lados del mayor de estos cuadrados es igual a $L(F, G)$ .

Gracias y saludos.

11voto

user36205 Puntos 11

Creo que tienes una imagen completa de la métrica de Prokhorov $\pi$ combinando lo que Dirk ha señalado y lo que ya sabemos sobre la métrica de la variación total. Esencialmente, $\pi$ es un análogo teórico de la medida de la métrica de Hausdorff, pero aflojando el módulo de la métrica de variación total. Explicaré lo que quiero decir con esto.

Supongamos que tenemos una medida de probabilidad $\mu$ . Podemos imaginar dos tipos diferentes (los llamaré Tipo I, Tipo II) de formas de cambiar ligeramente la medida $\mu$ . Para simplificar la exposición, supongamos $\mu$ es sólo un montón de N masas puntuales, es decir, $$\mu = \frac1N \sum_{i=1}^N \delta_{x_i}$$ donde $x_1, x_2, \cdots, x_N$ son $N$ puntos en el espacio y $\delta_x$ denota la masa puntual en $x$ es decir, la medida de Dirac. Un cambio de tipo I es cuando se corta una pequeña parte de $\mu$ y luego mover ese trozo arbitrariamente. Para ser precisos, diremos que la nueva medida de probabilidad $\nu$ se obtiene mediante un cambio de tipo I de $\mu$ en $\epsilon >0$ si tenemos $y_1, \cdots, y_N$ (otra lista de N puntos) tal que $$\nu := \frac1N \sum_{i=1}^N \delta_{y_i}$$ y $$ \#\{1 \le i \le N: x_i \ne y_i \} \le \epsilon N $$

Una propiedad esencial de la métrica de variación total $\delta(\mu, \nu)$ (entre medidas de probabilidad) es que permite cambios de tipo I. En otras palabras, tenemos una constante C tal que $\delta(\mu, \nu) \le C \epsilon$ siempre que $\nu$ se obtiene de $\mu$ por el cambio de tipo I dentro de $\epsilon$ .

Un cambio de tipo II es cuando se mueven todas o algunas de las partículas a poca distancia individualmente. Para ser precisos, la definición de cambio de tipo II sustituye la condición $$ \#\{1 \le i \le N: x_i \ne y_i \} \le \epsilon N $$ con esta condición $$ d(x_i, y_i) < \epsilon \ \forall 1 \le i \le N $$

La métrica de Hausdorff permite cambios de tipo II en el siguiente sentido: existe una constante C tal que siempre que $x_1, \cdots, x_n$ y $y_1, \cdots, y_n$ son dos listas de $N$ puntos en el espacio tales que la condición anterior se cumple, la distancia de Hausdorff entre los dos conjuntos $\{x_i : 1 \le i \le N\}, \{y_i : 1 \le i \le N\}$ es $\le C\epsilon$ .

La métrica Prokhorov $\pi$ permite tanto el tipo I como el tipo II. De hecho, debería ser capaz de demostrar el siguiente hecho. $$ \#\{1 \le i \le N: d(x_i, y_i) \ge \epsilon_2 \} \le \epsilon_1 N \implies \nu(A) \le \mu(A^{\epsilon_2}) + \epsilon_1 \ \forall A$$ Esto es sólo un cambio de tipo I dentro de $\epsilon_1$ seguido de un cambio de tipo II dentro de $\epsilon_2$ . Así que la métrica de Prokhorov es simplemente lo que se habría obtenido si se intentara definir una métrica $\pi$ con la agradable propiedad de que $\pi(\mu, \nu) \le \epsilon$ siempre que $\nu$ se obtiene moviendo las partículas en un $1-\epsilon$ porción de un "montón de suciedad de masa unitaria $\mu$ de cualquier manera a distancia $\epsilon$ y el resto $\epsilon$ parte de $\mu$ de forma arbitraria.

Por supuesto, podemos pensar en otra métrica $\pi'$ que satisface esta bonita propiedad simplemente por definición.

$$ \pi'(\mu, \nu) := \inf_{\gamma \in \Gamma(\mu, \nu)} \kappa(\gamma) $$

donde $\Gamma(\mu,\nu)$ es el conjunto de todos los acoplamientos entre $\mu, \nu$ y

$$ \kappa(\gamma) := \inf\{ \epsilon: \gamma\{ (x,y): d(x, y) > \epsilon \} < \epsilon \} $$

La agradable propiedad de la métrica de Prokhorov puede entonces reexpresarse como $\pi \le \pi'$ desde $\Gamma(\mu,\nu)$ puede considerarse como el conjunto de todas las formas posibles de mover el montón de tierra $\mu$ en el nuevo montón de tierra $\nu$ . Menos evidente es el hecho de que la otra desigualdad $\pi \ge \pi'$ también se mantiene. Así que al final, no son realmente dos métricas $\pi$ y $\pi'$ son una misma métrica $\pi = \pi'$ .

La métrica de Prokhorov se reduce a la métrica de variación total cuando se asigna la métrica discreta al espacio $M$ . Así que otra forma de pensar en $\pi$ es que es una generalización de la métrica de variación total que tiene en cuenta la topología del espacio.

10voto

Ryan L Puntos 318

La mayor parte de lo que se me ocurre ya se ha dicho, pero tal vez le resulte útil la siguiente imagen.

Si $d_C$ es la métrica de Chebyshev en $R^2$ es decir, con puntos $\mathbf{p} = (x_1,y_1)$ y $\mathbf{q} = (x_2,y_2)$ en $R^2$ ,

$d_C(\mathbf{p,q}) := |x_1-x_2| \vee |y_1-y_2|$ ,

y $h_C$ es la métrica de Hausdorff en subconjuntos cerrados de $R^2$ inducido por $d_C$ es decir, con $A$ y $B$ siendo subconjuntos cerrados de $R^2$ ,

$h_C(A,B):= \sup_{\mathbf{p} \in A} d_C(\mathbf{p},B) \vee \sup_{\mathbf{q} \in B} d_C(\mathbf{q},A)$ ,

donde como siempre $d_C(\mathbf{p},B) = \inf_{\mathbf{r} \in B} d_C(\mathbf{p,r})$ etc,

entonces la métrica de Levy entre dos funciones de distribución $F$ y $G$ es simplemente la distancia de Hausdorff $d_C$ entre los cierres de los gráficos completos de $F$ y $G$ .

7voto

Joel Puntos 101
  1. La métrica de Levy-Prokhorov sí metriza la convergencia débil de las medidas. Esto es algo muy bueno ya que permite concluir del hecho de que $\mu_n$ converge débilmente a $\mu$ que "se acerca a $\mu$ con respecto a alguna distancia".

  2. Creo que ésta está más relacionada con la norma de variación de la distancia de las medidas y, por tanto, describe algo así como la norma-convergencia. Junto con la primera respuesta se ve que ambos enfoques son para fines completamente diferentes.

Una intuición que tengo para la métrica Levy-Prokhorov es que dos masas puntuales $\delta_x$ y $\delta_y$ tienen la distancia de sus puntos si los puntos no están muy alejados, es decir, para $d(x,y)\leq 1$ sostiene que $$\pi(\delta_x,\delta_y) = d(x,y).$$ Por otro lado, su término en 2. es siempre 2, independientemente de $x$ y $y$ . Si tiene una secuencia $(x_n)$ convergiendo a $x$ en $M$ entonces $(\delta_{x_n})$ converge a $\delta_x$ con respecto a Levy-Prokhorov pero no en la norma.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X