5 votos

Caracterización de la convergencia de Wasserstein

Dejemos que $(X,d)$ sea un espacio métrico completo y defina $$\mathcal{P}_2(X) := \{ \mu \text{ Borel probability measure} \mid \int_X d^2(x,x_0) d\mu(x) < \infty \text{ for some } x_0 \in X \}$$ dotado de la distancia Wasserstein $$ W^2_2(\mu, \nu) = \inf \{ \int_{X \times X} d^2(x,y) d\pi(x,y) \mid \pi \in \Gamma(\mu, \nu) \} $$ donde $\Gamma(\mu, \nu)$ es el conjunto de medidas de probabilidad sobre $X \times X$ que los marginales son $\mu$ y $\nu$ .

En este contexto, estoy tratando de entender la prueba de

Teorema Si $\mu \in \mathcal{P}_2(X)$ y $ \{ \mu_n \} \subset \mathcal{P}_2(X)$ entonces $$ \mu_n \overset{W_2}{\longrightarrow} \mu \Leftrightarrow \biggl [ \mu_n \rightharpoonup \mu \text{ and } \int_X d^2(x,x_0) d\mu_n \longrightarrow \int_X d^2(x,x_0)d\mu \text{ for some }x_0 \in X \biggr ]$$

Hay 3 pasos en la prueba que no puedo entender del todo, asumen $(X,d)$ es compacto para los dos primeros puntos:

  1. Dejemos que $$Z:= \{ f \in \text{Lip}_1(X,d) \mid f(x_0)=0 \} $$ entonces $$\sup_{f \in \text{Lip}_1(X,d)} \biggl | \int_X f d(\mu_n -\mu) \biggr |= \sup_{f \in Z} \biggl | \int_X f d(\mu_n -\mu) \biggr | $$

  2. Dejemos que $A \subset X$ sea un subconjunto abierto, entonces $$ \liminf_{n} \int_A d^2(x,x_0)d\mu_n \ge \int_A d^2(x,x_0)d\mu $$

  3. Dada una secuencia de subconjuntos compactos $ \{ K_k \}_{k \ge 1}$ s.t. $$ \lim_{k \to +\infty} \sup_n \int_{X \setminus K_k} d^2(x_0, \cdot)d\mu_n =0$$ definir $$\mu_{n,k} := \mu_n |_{K_k} + (1-\mu_n(K_k))\delta_{x_0} $$ entonces, hasta las subsecuencias, $ \{ \mu_{n_k} \}_{n}$ es convergente débil.

Cualquier sugerencia será muy apreciada.

1voto

Josef Pfleger Puntos 37003

Puedo, al menos, ofrecer una prueba en la $(\implies)$ dirección y presuponiendo que las bolas cerradas en $X$ son compactos.

Prueba: En efecto, supongamos $W_{2}(\mu_{n},\mu)\to 0$ . Consideremos el punto delta de Dirac, $\delta_{x_{0}}$ . Entonces, como $W_{2}(\mu_{n},\mu)$ es una distancia en el espacio del segundo momento $\mathcal{P}_{2}(X)$ tenemos

$W_{2}(\mu_{n},\delta_{x_{0}})\leq W_{2}(\mu_{n},\mu)+W_{2}(\mu,\delta_{x_{0}})\implies W_{2}(\mu_{n},\delta_{x_{0}})-W_{2}(\mu,\delta_{x_{0}})\leq W_{2}(\mu_{n},\mu).$ Como $W_{2}(\mu,\delta_{x_{0}})-W_{2}(\mu_{n},\delta_{x_{0}})\geq -W_{2}(\mu_{n},\mu),$ entonces

$|W_{2}(\mu_{n},\delta_{x_{0}})-W_{2}(\mu,\delta_{x_{0}})|\leq W_{2}(\mu_{n},\mu).$

Entonces, por definición de $W_{2}$ , $\Big|\sqrt{\int d^{2}(x,x_{0})d\mu_{n}(x)}-\sqrt{\int d^{2}(x,x_{0})d\mu(x)}\Big|=|W_{2}(\mu_{n},\delta_{x_{0}})-W_{2}(\mu,\delta_{x_{0}})|\leq W_{2}(\mu_{n},\mu)\to 0,$ establece $\int d^{2}(\cdot,x_{0})d\mu_{n}\to \int d^{2}(\cdot,x_{0})d\mu$ .

Ahora suponiendo bolas cerradas de $X$ son compactas, la convergencia débil $\mu_{n}\rightharpoonup \mu$ a priori sigue. La sutileza viene de la condición de estanqueidad a priori. En efecto, para tales bolas cerradas de radio $R>0$ centrado en $x_{0}$ , $B_{R}(x_{0})$ tenemos esa estimación

$R^{2}\mu(X\setminus B_{R}(x_{0}))\leq \int_{X}d^{2}(x,x_{0})d\mu(x)$ junto con el límite uniforme de $\int d^{2}(x,x_{0})d\mu(x)$ demuestran que una secuencia $\mu_{n}$ está apretado. Por lo tanto, basta con mostrar la convergencia débil frente a funciones continuas con soporte compacto, $f\in C_{c}(X)$ . Ahora, como el conjunto de funciones continuas de Lipschitz son densas en el conjunto de funciones compactamente soportadas con respecto a la topología de convergencia uniforme, basta con comprobar la convergencia débil para las funciones continuas de Lipschitz.

A tal fin, fijar $f$ Lipschitz; es decir, para todo par de puntos $x,y$ y constante $C>0,$ $|f(x)-f(y)|\leq Cd(x,y)$ . Entonces $\Big|\int f(x)d\mu_{n}(x)-\int f(y)d\mu(y)\Big|=|\int (f(x)-f(y))d\pi_{n}(x,y)|\leq C\int d(x,y)d\pi_{n}(x,y)=C\Big(\Big(\int d(x,y)d\pi_{n}(x,y)\Big)^{2}\Big)^{1/2}\leq C(\int d^{2}(x,y)d\pi_{n}(x,y))^{1/2}=CW_{2}(\mu_{n},\mu),$

donde $\pi_{n}(x,y)$ es la medida de probabilidad que tiene marginales $\mu_{n}$ y $\mu$ donde aplicamos el hecho $\int_{X} f(x)d\mu_{n}(x)=\int_{X} f(x)d\mu_{n}(x)\int_{X} d\mu(y)=\int_{X\times X}f(x)d\mu_{n}(x,y)$ , ya que $\mu$ es una medida de probabilidad. Del mismo modo, para $\int_{X} f(y)d\mu(y)=\int_{X \times X}f(y)d\pi_{n}(x,y)$ . Además, aplicamos la desigualdad de Jensen en la última desigualdad. El resultado se deduce ya que estamos suponiendo $W_{2}(\mu_{n},\mu)\to 0.$

Observación. Esta es una prueba que aprendí del documento ``A users guide to optimal transport'' de Ambrosio y Gigli.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X