7 votos

¿Demostración de la desigualdad log Sobolev de Gross con cálculo variacional?

Para $f\in C^{1}(\mathbb{R}^{n})$ la desigualdad logarítmica de Sobolev de Gross dice que

$$\int f^{2} \log f^{2}\,d\mu -\int f^{2}\,d\mu \log\left(\int f^{2}\,d\mu\right)\leq \frac{2}{c}\int |\nabla f|^{2}d\mu,$$

donde $d\mu=\frac{1}{\pi^{n/2}}e^{-|x|^{2}}dx$ para algunos $c>0$ .

¿Alguna sugerencia sobre una prueba de tipo variacional? ¿Puede alguien explicar el argumento variacional propuesto en el artículo enlazado en la página 1268?

Intento

Prueba

Primero lo demostramos para $n=1$ y luego terminar por inducción. Podemos suponer $\int u^{2}d\mu=1$ y que $f(t)=v e^{t^{2}/2}$ entonces basta con demostrar

$$J(v):=\int_{0}^{\infty} \left(\frac{|\nabla v|^{2}}{2}-v^{2}\ln(|v|)\right)\,dt\geq \frac{\sqrt{\pi}}{4}$$

limitado a $\int_{0}^{\infty} v^{2}\,dt=\frac{\sqrt{\pi}}{2}$ . Pero $\Delta v+2v\ln(v)+(\lambda+1)v=0$ , donde $\lambda$ es el multiplicador de Lagrange, no parece fácil de resolver.

En el artículo siguiente, se propone un argumento de cálculo variacional diferente, que todavía no entiendo.

Adams, R. A.; Clarke, Frank H. "La desigualdad logarítmica de Sobolev de Gross: una demostración sencilla". Amer. J. Math. 101 (1979), nº 6, 1265-1269. MR 548880 DOI 10.2307/2374139

Gracias

1 votos

Sugerencias: (1) Por favor, escribe la cita completa (título, autor, revista, etc) del artículo con el argumento del cálculo variacional. El enlace que das no se puede utilizar fuera de la Universidad de Toronto. (2) ¿Estás pidiendo ayuda con el argumento de ese artículo? En ese caso, por favor, especifica qué parte no entiendes. Tal y como está, parece que quieres que alguien reescriba el documento por ti, lo cual no es razonable. (3) ¿O está preguntando por otras posibles pruebas, como la de Bakry-Emery? Echa un vistazo a algunos de sus otros trabajos, muchos de los cuales están en inglés.

0 votos

Gracias. Los añadí en mi respuesta pero aquí están también: (1) Adams "Gross's Logarithmic Sobolev Inequality: A Simple Proof" 1979 (2)ayuda con el argumento de la página 1268 (3)cualquier prueba variacional

1 votos

Gracias. He rellenado el completo citación. En particular, ha omitido el nombre del otro autor del artículo, Frank Clarke.

5voto

Kyle Cronin Puntos 35834

Probablemente te refieres a Gross's Registro -¿Desigualdad de Sobolev? No puedo ayudar a entender ninguna prueba de cálculo variacional, pero hay otras pruebas que me parecen más fáciles de entender.

En realidad, prefiero obtener primero la desigualdad hipercontractual, $\|P_t f\|_q \leq \|g\|_p$ proporcionado $e^{-2t} \leq \frac{p-1}{q-1}$ y luego recuperar Log-Sobolev tomando $q = 2$ elevando al cuadrado ambos lados, y diferenciando en $t = 0$ . (Véase, por ejemplo, el ejercicio 10.23 en http://analysisofbooleanfunctions.org ) En cuanto a la desigualdad hipercontractiva propiamente dicha, la forma corta más tradicional de demostrarla (debida a Gross, pero también de forma independiente a Bonami anteriormente) es demostrarla primero para las funciones booleanas (por inducción en $n$ ) y luego pasar a la configuración gaussiana utilizando el Teorema del Límite Central. El libro de Janson Espacios de Hilbert gaussianos (capítulo 5) lo hace muy bien (o puede ver los capítulos 9, 10 y 11 en el sitio web mencionado). También se puede demostrar Log-Sobolev directamente por inducción en el caso booleano (véase, por ejemplo, el ejercicio 10.26).

Si uno sólo se preocupa por el entorno gaussiano, hay otras rutas cortas hacia la hipercontractividad (y, por tanto, hacia Log-Sobolev). Está el "método de Neveu"; aunque es corto, utiliza el cálculo estocástico y, por tanto, no es muy elemental. Por otro lado, en el reciente artículo de Ledoux "Remarks on Gaussian Noise Sensitivity..." se ofrece una prueba muy directa y sencilla, basada en las primeras ideas de Hu y de Mossel--Neeman.

2voto

Geetj Puntos 8

Lo siguiente debería responder a tu pregunta: si denotas $f^{2}=g$ entonces la desigualdad log-Sobolev se puede reescribir como sigue: $$ \int_{\mathbb{R}^{n}} \left( g \ln g - \frac{1}{2c}\frac{|\nabla g|^{2}}{g} \right)d\mu \leq \left( \int_{\mathbb{R}^{n}} g d\mu \right) \ln \left(\int_{\mathbb{R}^{n}} g d\mu \right). $$ Considere el caso $n=1$ . Partamos de un problema de optimización ligeramente general: \begin{align*} B(t,x,z) \stackrel{\mathrm{def}}{=} \sup_{f \in C^{1}(\mathbb{R})}\left\{\int_{-\infty}^{t} F(f,f')d\mu, \; f(t)=x, \; \int_{-\infty}^{t} f d\mu=z \right\}. \quad (1) \end{align*} donde $d\mu=\varphi(x) dx$ es una buena medida con densidad $\varphi(x)$ (en su caso será la medida gaussiana), $F(x,y)$ es una función fija suficientemente suave (en su caso $F(x,y)=x\ln x - \frac{1}{2c} \frac{y^{2}}{x}$ ).

Está claro que si encuentras explícitamente $B(t,x,z)$ entonces la desigualdad log-Sobolev es simplemente una afirmación de que $$ B(\infty, x, z) \leq z \ln z \quad \forall x \geq 0 $$ para la función $F(x,y)$ mencionado anteriormente. Pero cómo encontrar $B$ ?

El principio fundamental de la teoría de la optimización es que $B$ debe satisfacer una ecuación de Hamilton--Jacobi--Bellman. Lo resumiré brevemente en los dos siguientes lemas.

El siguiente lema muestra que a veces no es necesario encontrar $B$ precisamente.

Lema Dejemos que $M(t,x,z) :\mathbb{R}^{3} \to \mathbb{R}$ ser un $C^{1}$ función. Si \begin{align*} F(x,y) \varphi(t) \leq M_{t} + y M_{x}+x\varphi(t) M_{z} \quad \forall t,x,z,y \in \mathbb{R} \quad (2) \end{align*} entonces \begin{align*} \int_{\mathbb{R}} F(f,f')d\mu \leq M(-\infty, 0, 0) - M\left(\infty, 0, \int_{\mathbb{R}} fd\mu\right) \end{align*} para cualquier función suave con soporte compacto $f$ .

Prueba Sí, es cierto,
\begin{align*} &0 \geq \int_{t_{1}}^{t_{2}}\left[F(f(t),f'(t))\varphi(t) - \frac{d}{dt}M\left(t,f(t), \int_{-\infty}^{t} f d\mu \right) \right]dt=\\ &\int_{t_{1}}^{t_{2}}F(f,f')d\mu-\left[M\left( t_{2},f(t_{2}), \int_{-\infty}^{t_{2}}fd\mu\right) - M\left(t_{1}, f(t_{1}), \int_{-\infty}^{t_{1}}d\mu \right) \right]. \end{align*} Y el resto sigue tomando $t_{1} \to -\infty$ y $t_{2} \to +\infty$ . $\square$

El siguiente lema muestra que en realidad $B$ definida en (1) satisface (2)

Lema Tenemos \begin{align*} F(x,y) \varphi(t) \leq B_{t} + y B_{x}+x\varphi(t) B_{z} \quad \forall t,x,z,y \in \mathbb{R} \quad (3) \end{align*}

Prueba

Tómate un tiempo $t+\varepsilon$ y considerar un optimizador $f$ en el intervalo $(-\infty, t)$ . A continuación, extiéndalo como $f(s) = f(t)+(s-t)y$ en el intervalo $[t,t+\varepsilon]$ . Sea $z(t)=\int_{-\infty}^{t} f d\mu$ . Entonces tenemos \begin{align*} &B\left[t+\varepsilon, f(t)+\varepsilon y, z(t)+\int_{t}^{t+\varepsilon} (f(t)+(s-t)y,y)d\mu \right] \geq \int_{-\infty}^{t+\varepsilon}F(f,f')d\mu=\\ &B(t,f(t),z)+\int_{t}^{t+\varepsilon} F(f(t)+(s-t)y,y)d\mu \end{align*} Moviendo $B(t,f(t),z(t))$ al lado izquierdo de la desigualdad, dividiendo todo por $\varepsilon$ , enviando $\varepsilon \to 0$ y comparando los términos de primer orden obtenemos (3 en el punto $(t,f(t),z(t),y)$ . Dado que este punto puede elegirse como arbitrario, obtenemos la afirmación. $\square$

El último lema parece muy convincente pero todavía requiere algunas justificaciones, por ejemplo, por qué el optimizador $f(t)$ ¿existe? Son preguntas profundas y no vamos a hablar de ello ahora.

Así hemos obtenido casi una EDP sobre $B$ (véase (3)). Claramente (3) implica que \begin{align*} B_{t}+x\varphi(t) B_{z} + \inf_{y}\{ B_{x} y - F(x,y)\varphi(t)\}\geq 0 \quad (4) \end{align*}

La última observación es que la desigualdad (4) debería ser una igualdad, de lo contrario podríamos perturbar ligeramente $B$ y hacerla más pequeña (esto también requiere más justificaciones).

Así hemos llegado finalmente a la EDP de Hamilton--Jacobi--Bellman. $$ B_{t}+x\varphi(t) B_{z} + \inf_{y}\{ B_{x} y - F(x,y)\varphi(t)\}=0 \quad (5) $$ y cualquier solución de (5) o supersolución (es decir, la que satisface (4)) da lugar a la desigualdad funcional

$$ \int_{\mathbb{R}} F(f,f')d\mu \leq B(-\infty, 0, 0)-B\left(\infty,0, \int_{\mathbb{R}} f d\mu\right) \quad (6) $$

Es curioso, ¿verdad? La medida $d\mu$ no importa, $F(x,y)$ no importa

En el artículo que mencionas supongo que los autores adivinaron a partir de Euler--Lagrange (o nuevo a partir del artículo de Gross) los optimizadores para la desigualdad log-Sobolev en (1) donde $F(x,y)=x\ln x - \frac{1}{2c} \frac{y^{2}}{x}$ y simplemente los conectaron a (1) y encontraron $B$ . Entonces fue bastante sencillo comprobar (4) y obtener (6).

Para mí esto parece un "engaño" :D. El artículo es bonito y es una muy buena aplicación de la teoría de control en este campo. Pero creo que hay que empezar por resolver la EDP (5) de Hamilton-Jacobi-Bellman, que es una EDP no lineal de primer orden, por lo que el método característico debería funcionar.

1voto

mreggen Puntos 2940

La desigualdad log-Sobolev de Gross es equivalente a la desigualdad de Stam (que puede utilizarse para demostrar la desigualdad de potencia de la entropía de Shannon). Esta desigualdad puede interpretarse, a su vez, como un límite inferior agudo de la entropía de Shannon de un vector aleatorio en términos de su información de Fisher. Además, la igualdad se mantiene si y sólo si el vector aleatorio es gaussiano. Se trata, pues, de una formulación variacional de la desigualdad log-Sobolev.

Véase, por ejemplo, http://www.math.univtoulouse.fr/~ledoux/Logsobwpause.pdf .

Creo que el libro Elements of Information Theory de Cover y Thomas hace al menos el caso de 1 dimensión.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X