42 votos

Desigualdades importantes (pero no demasiado conocidas)

Después de ver la pregunta Fórmulas importantes en combinatoria He pensado que podría ser interesante disponer de una lista similar de desigualdades, aunque no restringida a la combinatoria. Al igual que con esa lista, debería haber algunas reglas. 

  1. La desigualdad no debe ser demasiado conocida. Esto es para descartar cosas como Cauchy-Schwarz o las desigualdades de Sobolev. La desigualdad debería ser desconocida para la mayoría de los matemáticos. 
  2. La desigualdad debe representar las matemáticas de nivel de investigación. Esto está tomado directamente de la otra lista, y parece una buena regla. 
  3. La desigualdad debe ser importante.   Dado que es más fácil encontrar desigualdades que fórmulas exactas, esto debería ser más restrictivo que en la otra lista. La idea es tener desigualdades que hayan desempeñado un papel importante en el desarrollo de algún campo.
  4. Una respuesta puede ser una clase de desigualdades. Como se señala en los comentarios, a menudo lo importante es una familia de desigualdades que transmiten todas la misma idea, pero en la que ningún resultado es el ejemplo fundamental. Esto es perfectamente aceptable, y quizás incluso se fomente, ya que cualquier ejemplo de este tipo tendrá probablemente muchas aplicaciones.

Para dar una idea de lo que quiero decir, permítanme dar un ejemplo que creo que satisface los tres primeros criterios: la estimación de Li-Yau.

La desigualdad de Li-Yau es la estimación $$ \Delta \ln u \geq - \frac{ n}{ 2t}.$$

Aquí $u: M \times \mathbb{R} \to \mathbb{R}^+ $ es una solución no negativa de la ecuación de calor $ \frac{\partial u}{\partial t} = \Delta u, $ $(M^n,g)$ es una variedad riemanniana compacta con curvatura de Ricci no negativa y $\Delta$ es el operador de Laplace-Beltrami.

Esta desigualdad desempeña un papel muy importante en el análisis geométrico. Proporciona una desigualdad diferencial de Harnack para las soluciones de la ecuación del calor, que se integra en la estimación estándar de Harnack. Hay muchos resultados que refuerzan la desigualdad original o la adaptan a un entorno diferente. También hay resultados que no son generalizaciones de la desigualdad original, pero que llevan su influencia. Por ejemplo, Hamilton demostró una versión tensorial de la desigualdad de Li-Yau para una variedad que tiene una curvatura seccional no negativa y que evoluciona por flujo de Ricci. Además, uno de los avances importantes de Perelman fue demostrar una versión de la desigualdad de Hamilton-Li-Yau para una solución del flujo térmico invertido en el tiempo cuando la métrica evoluciona por el flujo de Ricci. Estos resultados no son en absoluto corolarios de la estimación original de Li-Yau, pero tienen un espíritu similar.

12 votos

A menudo, en el análisis es un clase de desigualdades que es importante, más que una desigualdad específica de esa clase. Por ejemplo, la clase de desigualdades de concentración de medidas (Chernoff, Hoeffding, Bernstein, Azuma, McDiarmid, Levy, Talagrand, etc.) es extremadamente importante en la probabilidad moderna, la combinatoria, la teoría de las matrices aleatorias, la geometría de alta dimensión y la informática teórica, pero yo no destacaría una sola desigualdad de esta clase como particularmente fundamental.

0 votos

Gracias por el comentario. La concentración de la medida es definitivamente el tipo de cosa que tenía en mente cuando hice esta pregunta, así que voy a editar la pregunta para permitir clases de desigualdades.

1 votos

@GabeK la desigualdad de Li-Yau sería un ejemplo de los cuatro criterios, no sólo de los tres primeros, ¿no? Desde las ecuaciones escalares hasta el flujo de Ricci y el flujo de curvatura media, pasando por las estimaciones originales del gradiente de Yau y Cheng-Yau en el entorno elíptico

30voto

steevc Puntos 211

La clase de concentración de las desigualdades de medida es una herramienta fundamental en la probabilidad moderna (y en cualquier campo que utilice la probabilidad, por ejemplo, la teoría de matrices aleatorias, la informática teórica, la estadística, la geometría de alta dimensión, la combinatoria, etc.). Como se explica en esta entrada del blog de Scott Aaronson En la mayoría de los casos, la probabilidad de que ocurra algo malo está limitada, y a menudo los límites son exponenciales o incluso gaussianos cuando uno se aleja de la media (o de la mediana) y hay muchas variables independientes (o algo independientes). Algunos ejemplos de estas desigualdades son

Las desigualdades de Log-Sobolev no son, estrictamente hablando, desigualdades de concentración de medida, pero a menudo están estrechamente relacionadas con ellas, gracias a técnicas como el argumento de Herbst.

Una referencia estándar en la materia para estos temas es

Ledoux, Michel El fenómeno de la concentración de la medida, Encuestas y Monografías Matemáticas. 89. Providence, RI: American Mathematical Society (AMS). x, 181 p. (2001). ZBL0995.60002 .

También tengo una entrada en el blog sobre este tema ici .

0 votos

Se trata, sin duda, de desigualdades muy importantes. ¿Las describiría como "desconocidas para la mayoría de los matemáticos"? Cualquiera que haya hecho un curso de probabilidad o de estadística teórica de nivel superior conocerá las desigualdades de Chernoff y Azuma; incluso en un curso de licenciatura al que asistí se hablaba de Chernoff y McDiarmid (también conocidas como diferencias acotadas). Sin embargo, como joven probabilista, quizá no esté en condiciones de juzgar lo conocidas que son.

0 votos

Si se me permite añadir una sugerencia a la desigualdad de McDiarmid, que se puede encontrar en su encuesta Sobre el método de las diferencias limitadas En la actualidad, varios autores han considerado las diferencias limitadas "típicas" (en contraposición al peor de los casos). Véase, por ejemplo, Sobre el método de las diferencias típicas limitadas [cont...]

0 votos

[...cont] Varias personas que desean estas desigualdades de diferencias acotadas pueden no ser conscientes de tales desigualdades de diferencias acotadas "típicas" en las que los límites no se cumplen para todos los puntos del espacio, sino sólo para los "típicos", de alguna manera precisa

19voto

Geetj Puntos 8

Gaussiano La desigualdad de Jensen:

Dejemos que $\boldsymbol{X}=(X_{1}, \ldots, X_{n})\sim \mathcal{N}(\boldsymbol{\mu}, \boldsymbol\Sigma)$ sea un vector gaussiano. La desigualdad $$ \mathbb{E} B(f_{1}(X_{1}), \ldots, f_{n}(X_{n})) \leq B(\mathbb{E}f_{1}(X_{1}), \ldots, \mathbb{E}f_{n}(X_{n})) $$ es válida para todos los valores reales (funciones de prueba) $f_{1}, \ldots, f_{n}$ si y sólo si $\mathrm{Hess}\, B\, \bullet \boldsymbol{\Sigma} \leq 0$ .

Observaciones: ici $\bullet$ denota Producto de Hadamard ; $B : \Omega \subset \mathbb{R}^{n} \to \mathbb{R}$ es una función suave dada en un dominio rectangular $\Omega = J_{1}\times\ldots \times J_{n}$ para algunos intervalos (rayos, línea real) $J_{k}$ y el mapa de funciones de prueba $f_{k} :\mathbb{R} \to J_{k}$ . Desigualdad $\mathrm{Hess}\, B(s)\, \bullet \boldsymbol{\Sigma} \leq 0$ se requiere que se mantenga para todos los $s \in \Omega$ y significa que la matriz es semidefinida negativa.

Aplicaciones: (¡la lista no está ni mucho menos completa!)

  • Prekopa--Leindler.
  • La desigualdad de Ehrhard - podría ser poco conocida. Es un análogo agudo de Brunn--Minkowski para la medida gaussiana que implica Desigualdad isoperimétrica gaussiana
  • Hipercontractividad para el semigrupo Ornstein--Uhlenbeck.
  • Desigualdad de Brascamp--Lieb (incluyendo la desigualdad de convición de Young, etc.). Hay un paso de límite muy desagradable del caso gaussiano al caso de Lebesgue.
  • Estabilidad del ruido gaussiano (es mejor buscarlo en Google).

Cómo pensar en esta desigualdad :

Si $X_{1}, ..., X_{n}$ son independientes, entonces $\mathrm{Hess}\, B\, \bullet \boldsymbol{\Sigma} \leq 0$ significa simplemente que $B$ es cóncavo por separado. Si $X_{1}=X_{2}=...=X_{n}$ entonces $\mathrm{Hess}\, B\, \bullet \boldsymbol{\Sigma} \leq 0$ es sólo la concavidad de $B$ . La desigualdad mejora la desigualdad clásica de Jensen porque $\mathrm{Hess} B \leq 0 \Rightarrow \mathrm{Hess}\, B\, \bullet \boldsymbol{\Sigma} \leq 0$ para cualquier matriz de covarianza $\boldsymbol{\Sigma}$ . Si $\boldsymbol{X}$ es un vector aleatorio (con densidad suave y diferente a la gaussiana) entonces la "condición infinitesimal" $\mathrm{Hess}\, B\, \bullet \boldsymbol{\Sigma} \leq 0$ es siempre necesaria para la "desigualdad de Jensen" pero no siempre suficiente. Así que el vector gaussiano es de alguna manera universal.

1 votos

¿cuáles son las buenas referencias para esto?

1 votos

Como no hay una buena referencia que resuma la desigualdad de Jensen de Gauss en la forma en que publiqué en mi respuesta, decidí escribir una entrada en el blog con pruebas y aplicaciones extremal010101.wordpress.com/2021/01/01/jensens-inequality

1 votos

Sólo he hojeado tu post. Esto se ve hermoso, tanto las matemáticas como la escritura. Muchas gracias.

9voto

steevc Puntos 211

Strichartz estima que que se originó en

Strichartz, Robert S. , Restricciones de las transformadas de Fourier a las superficies cuadráticas y decaimiento de las soluciones de las ecuaciones de onda , Duke Math. J. 44, 705-714 (1977). ZBL0372.35001 ,

son una familia de desigualdades que proporcionan $L^p$ (o Sobolev) de soluciones de ecuaciones lineales dispersivas o de onda (como la ecuación de Schrodinger) en términos del tamaño de los datos iniciales (normalmente medidos en algún tipo de $L^2$ -basada en la norma de Sobolev), así como un término de forzamiento no homogéneo (que también suele medirse en algún tipo de $L^p$ o norma de Sobolev). Mediante técnicas perturbadoras (por ejemplo, el teorema del mapa de contracción), las estimaciones de Strichartz pueden extenderse a menudo a las ecuaciones dispersivas u ondulatorias no lineales, al menos si los datos y el término de forzamiento son pequeños y/o se trabaja localmente en el tiempo en lugar de globalmente. Como tales, las estimaciones de Strichartz forman la columna vertebral de la moderna teoría de la buena composición local para tales ecuaciones, y a menudo también desempeñan un papel importante en la teoría global (por ejemplo, la teoría de la dispersión, o el análisis de la explosión) de estas ecuaciones. Como una medida muy cruda de su impacto, MathSciNet informa de más de mil artículos dedicado al tema de las estimaciones de Strichartz. A grandes rasgos, las estimaciones de Strichartz son para las ecuaciones dispersivas y ondulatorias lo que las estimaciones de Sobolev son para las ecuaciones elípticas.

Desigualdades de Morawetz que se originó en el trabajo de Cathleen Morawetz, y en particular

Morawetz, C. S. , Decaimiento temporal para la ecuación no lineal de Klein-Gordon , Proc. R. Soc. Lond., Ser. A 306, 291-296 (1968). ZBL0157.41502 .

dar un control global de $L^p$ de tipo dispersivo no lineal o de ecuaciones de onda, y suelen demostrarse utilizando argumentos de integración por partes. A diferencia de las estimaciones de Strichartz, suelen ser globales en el tiempo y funcionan en situaciones no perturbadoras; por otra parte, tienden a ser más restringidas en el rango de $L^p$ cantidades de tipo que pueden ser controladas, y también son sensibles a la naturaleza de enfoque o desenfoque de la no linealidad. (El análogo elíptico más cercano a las desigualdades de Morawetz serían las identidades de tipo Pohozaev. También existe una variante útil de las desigualdades de Morawetz conocida como identidades de viriel .)

Gran parte de la teoría global moderna de las ecuaciones no lineales de dispersión y de onda (en particular para las elecciones "críticas" de los exponentes) se basa en gran medida en una intrincada combinación de estimaciones de Strichartz y desigualdades de Morawetz (así como en otras herramientas, como las leyes de conservación, la teoría de Littlewood-Paley y los métodos de compacidad de la concentración). Véase, por ejemplo mi libro sobre el tema .

2 votos

Gracias por esta excelente respuesta. Es interesante cómo las herramientas fundamentales para las ecuaciones hiperbólicas frente a las elípticas/parabólicas son tan diferentes. Realmente ilustra lo diferentes que son.

7voto

Nathan Baulch Puntos 7994

Esto es de Garding.

Dejemos que $P\in{\mathbb R}[X_1,\ldots,X_d]$ sea un polinomio homogéneo. Supongamos que es hiperbólica en alguna dirección $e\in{\mathbb R}^d$ (con digamos la normalización $P(e)=1$ ) y que $\Gamma$ sea su cono de futuro, es decir, la componente conexa de $e$ en el complemento de $\{P=0\}$ . Se sabe que $\Gamma$ es convexo. Entonces tenemos la desigualdad inversa de Hölder para cada $v_1,\ldots,v_n\in\Gamma$ , $$M(v_1,\ldots,v_n)\ge(P(v_1)\cdots P(v_n))^{\frac1n},$$ donde $M$ es la forma multiplineal simétrica tal que $M(x,\ldots,x)=P(x)$ .

Las consecuencias se dan en la geometría convexa, la combinatoria, las EDP, ...

De hecho, $P^{\frac1n}$ es cóncavo sobre $\Gamma$ . Un ejemplo sencillo es el de las formas cuadráticas de firma $(1,d-1)$ . Otro buen ejemplo es $P=\det$ , donde ${\mathbb R}^d={\bf M}_n({\mathbb R})$ .

0 votos

Muy interesante. ¿Hay alguna referencia para seguir leyendo?

1 votos

@VadimOgranovich. Bueno, está el artículo original de Garding en Acta Math, alrededor de 1960. Por lo demás, hay un montón de artículos sobre polinomios hiperbólicos. Sigue siendo un tema activo. Escribí un artículo en Chinese Annals of Maths B (2009) DOI 10.1007/s11401-009-0169-3 .

4voto

tmsimont Puntos 120

Hace poco me encontré con esta desigualdad en el espacio gaussiano. No conocía su existencia ya que no es realmente una desigualdad clásica en comparación con la desigualdad de Poincaré o la desigualdad de Sobolev logarítmica pero parece ser útil para demostrar la analiticidad del semigrupo de Ornstein-Uhlenbeck en $L^p(\gamma)$ . Sea $\gamma$ sea la medida gaussiana estándar en $\mathbb{R}^d$ . Sea $p \in (1,+\infty)$ , dejemos que $f\in \mathcal{S}(\mathbb{R}^d)$ y que $k \in \{1, \dots, d\}$ . Entonces, \begin{align*} \|x_kf\|_{L^p(\gamma)} \leq C_{p,d} \left(\|f\|_{L^p(\gamma)}+\|\partial_k(f)\|_{L^p(\gamma)}\right), \end{align*} où $C_{p,d}>0$ sólo depende de $d$ y en $p$ .

0 votos

Otra desigualdad que no se ha mencionado pero que es muy útil es la desigualdad de Carbery-Wright, que da una cota anticoncentración para polinomios de variables aleatorias gaussianas.

0 votos

¿Tiene por casualidad una referencia con aplicaciones a la analiticidad del semigrupo OU?

1 votos

Está bien escondido. Lemma 2.3 de este trabajo: sciencedirect.com/science/article/pii/S0022123602939789 . En cuanto a la analiticidad, se deduce de la fórmula de Bismut junto con esta desigualdad.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X