10 votos

Cómo resolver esta estimación $m\{t \in[a, b]:|f(t)| \leq \varepsilon\} \leq 4\left(q ! \frac{\varepsilon}{2 \beta}\right)^{\frac{1}{q}}$

  1. (a) Supongamos que la función $f:[a, b] \rightarrow \mathcal{R}$ con $a<b$ es diferenciable y satisface $\left|f^{\prime}(t)\right| \geq \beta$ para todos $t \in[a, b]$ para algunos $\beta>0 .$ Demuestre la siguiente estimación $$ m\{t \in[a, b]:|f(t)| \leq \varepsilon\} \leq \frac{2 \varepsilon}{\beta} \quad \text { for } \varepsilon>0 $$ donde $m\{B\}$ denota la medida de Lebesgue del conjunto $B$ .

(b) Supongamos que la función $f:[a, b] \rightarrow \mathcal{R}$ con $a<b$ es $q$ -veces continuamente diferenciable y satisface $\left|f^{(q)}(t)\right| \geq \beta$ para todos $t \in[a, b]$ para algún número entero positivo $q$ y $\beta>0 .$ Demuestre la siguiente estimación $$ m\{t \in[a, b]:|f(t)| \leq \varepsilon\} \leq 4\left(q ! \frac{\varepsilon}{2 \beta}\right)^{\frac{1}{q}} \quad \text { for } \varepsilon>0 $$ donde $m\{B\}$ denota la medida de Lebesgue del conjunto $B$ .

He probado $(a)$ . Teniendo en cuenta que podemos suponer que $f^{\prime}(t)\geq \beta$ y $a= 0$ Así que $f(t)\geq \beta t+f(0) $ $(*)$ . Sin embargo, es fácil demostrar que para cualquier función lineal con pendiente $\beta$ , $(a)$ es correcto. Por $ (*)$ se puede demostrar $(a)$ para todas las $f$ con $\left|f^{\prime}(t)\right| \geq \beta$ .

Para (b), el método que utilizamos en (a) no funciona, ya que no podemos obtener la desigualdad como $(*)$ . I también intenté demostrarlo por inducción, pero fracasé.

¿Alguien me puede dar alguna pista o solución correcta? ¡¡¡Gracias de antemano!!!

3voto

Introducción

No puedo creer que la segunda pregunta se haya dado como tarea. Es una pregunta bastante pendiente, y creo que tampoco he conseguido las mejores constantes.

El tema que nos ocupa se llama "estimación de conjuntos de subniveles". ¿Por qué? Bueno, el conjunto $\{x : |f(x)| \leq \epsilon\}$ es el ( $x$ coordenadas de la) parte del gráfico que se encuentra entre las líneas $y=-\epsilon$ y $y=\epsilon$ . Si se trata de una función no negativa, entonces estamos viendo sólo la parte de la gráfica que miente debajo de la línea $y=\epsilon$ de ahí la palabra "subnivel".

En esta pregunta estimamos la medida de un conjunto de subniveles. La cuestión, sin embargo, es que se trata de un tema de investigación : que es precisamente por lo que voy a dar una respuesta detallada, en lugar de una con pistas.

A lo largo de esta respuesta, $E = \{x : f(x) \leq \epsilon\}$ para $\epsilon>0$ fija pero arbitraria, y $f^k$ denota el $k$ derivada de una función $f$ .

Demostraremos un resultado muy parecido al de la pregunta, pero al final parece que es diferente. Sin embargo, puedo confirmar que mi trabajo es correcto.

Supondremos que $f^k > \beta$ . Efectivamente, $f^k$ tiene la propiedad de valor intermedio, por lo que o bien es cierto que $f^k$ o bien se mantiene por encima de $\beta$ o por debajo de $-\beta$ y un cambio de $f$ a $-f$ te dice que basta con considerar un caso.


Intuición

Revisemos primero el caso unidimensional, es bastante fácil. Sea $x,y \in E$ . Observamos que $|f(x)-f(y)| \leq 2\epsilon$ de la desigualdad del triángulo. Sin embargo, también tenemos : $$ |f(x)-f(y)| = \left|\int_x^y f'(t)dt\right| \geq \beta |x-y| $$

de lo que se deduce que $|x-y| \leq \frac{2\epsilon}{\beta}$ para todos $x,y \in E$ y la desigualdad deseada se obtiene fácilmente tomando $x=\inf E,y = \sup E$ y utilizando la monotonicidad de la medida de Lebesgue.

Ahora bien, ¿cuál es el problema en el caso bidimensional con este planteamiento? Allí, si decidimos utilizar Taylor, obtenemos : $$ f(x)-f(y) = f'(y)(x-y) + \frac{f''(\xi)}{2}(x-y)^2 $$

Parece que se puede hacer algo con esto : excepto, que no se puede librar de la arbitrariedad de $f'(y)$ aquí, y que juega el argumento fuera del parque. Si intenta seguir adelante, no podrá librarse de la contribución del $f'$ plazo, incluso con el planteamiento más ingenuo, básicamente porque $f'$ puede ser cualquier cosa.


Ingeniosa observación

Ahora tenemos claro lo que hay que hacer. Ciñámonos a la cuestión de la segunda derivada. El punto es el siguiente: pasar de la segunda derivada a la primera derivada no se puede hacer mediante la fórmula de Taylor, porque eso implica la primera derivada de aspecto arbitrario.

Por lo tanto, cualquier idea clave para este problema es encontrar una manera de vincular la segunda derivada a la función inicial, sin que intervenga en absoluto la primera derivada ¡!

En términos más generales , se trata básicamente de vincular los valores de la función a los de cualquier derivada más grande , por lo que una vez que se utiliza el límite de la derivada allí, entonces se puede traducir fácilmente a algo sobre los valores de la función.

¿Pero podemos hacerlo?


Rollo inventivo

¿Cuál es el resultado que sabemos que hace algo así? Es el generalizado El teorema de Rolle, que básicamente afirma (a grandes rasgos) que si $f$ es $k$ veces diferenciable en $[c,d]$ y hay $k+1$ puntos distintos en $[c,d]$ donde $f$ desaparece, entonces hay un punto en el que $f^k$ en realidad desaparece.

Eso es relacionar unos valores de la función, con un valor de la derivada. ¿Pero podemos hacerlo mejor? La respuesta es, en realidad podemos derivar una versión muy generalizada del teorema de Rolle que nos permite obtener algún valor de la derivada como un exacto expresión de algunos valores de función dados.

El teorema es bastante complicado y está relacionado con la interpolación de Lagrange. Lo cito directamente del mejor artículo que he podido encontrar en la literatura sobre estimación por subniveles, de Carbery, Christ y Wright . He hecho algunos cambios para adaptarlo a nuestro debate.

Sea $k \geq 1$ y $a \leq a_1 < \ldots < a_{k+1} \leq b$ sean puntos distintos en $[a,b]$ . Supongamos que $f$ es $k$ veces continuamente diferenciable en $(a,b)$ y $k-1$ veces continuamente diferenciable en $[a,b]$ . Entonces, hay un $\xi \in (a,b)$ y constantes explícitas $c_m$ sin depender de $f$ tal que..: $$ f^{k}(\xi) = \sum_{m=1}^{k+1} c_m f(a_m) = f^{k}(\xi) $$

Lo demostraremos utilizando un argumento de "ajuste polinómico": aquí es donde entra en juego la interpolación.


Prueba infatigable

Empezaremos intentando reducir este resultado al teorema de Rolle generalizado (TGR). Para ello, necesitamos una función tal que desaparezca en $k+1$ puntos. ¿Qué mejor que $a_1,...,a_{k+1}$ por esos puntos?

Lo que haremos es lo siguiente :

  • Demostrar y encontrar un polinomio $p$ de grado $k$ tal que $p(a_i) = f(a_i)$ para todos $i=1,...,k+1$ .

  • Aplicar la TGR a $f-p$ y retroceder a $f$ .

Encontrar el polinomio $p$ es un ejercicio lineal-algebraico y es carne de interpolación de Lagrange. En efecto, supongamos que $p(x) = b_kx^k + \ldots + b_0$ . Entonces, el siguiente producto de matrices debe ser cierto : $$ V_{k+1}(a_1,\ldots,a_{k+1}) [b_0,\ldots,b_k]^T = [f(a_1),\ldots,f(a_m)]^T $$

donde $V_{k+1}$ es la matriz de Vandermonde, definida por $[V_{k+1}]_{i,j} = a_i^{j-1}$ . Es bien conocido por la naturaleza distinta de la $a_i$ que $V_{k+1}$ es invertible, y por tanto : $$ [b_0,\ldots,b_k]^T = V_{k+1}(a_1,\ldots,a_{k+1})^{-1} [f(a_1),\ldots,f(a_m)]^T $$

Lo que queremos de esto, es en realidad el valor de $b_{k}$ porque pensamos aplicar la TGR, así que cuando tomemos el $k$ derivada de $p$ nos quedamos con $k!b_k$ . Podemos obtenerlo utilizando la regla habitual del cofactor , y detectando la recurrencia del determinante de Vandermonde, pero sin el $k$ y sin $a_k$ apareciendo. Por lo tanto, $$ [V_{k+1}(a_1,\ldots,a_{k+1})^{-1}]_{k+1,j} = (-1)^{k+1+j} \frac{\det V_{k}(a_1,\ldots,a_{j-1},a_{j+1},\ldots,a_{k+1})}{\det V_{k+1} (a_1,\ldots,a_{k+1})} \\ = (-1)^{k+1+j} \prod_{i \neq j} |a_i - a_j|^{-1} $$

Así, obtenemos : $$ b_{k} = \sum_{i=1}^{k+1} (-1)^{k+i} \prod_{j \neq i} |a_j - a_i|^{-1} f(a_j) $$

y el polinomio $p$ se ha construido. Ahora, $(f-p)(a_i)=0$ para todos $i$ por lo que utilizando la TGR obtenemos a $\xi$ donde $(f-p)^k(\xi) = 0$ . Pero entonces, $(f-p)^{k} = f^k - k!b_k$ . Por lo tanto, se deduce que $$ f^k(\xi) = \sum_{i=1}^{k+1} \underbrace{k!(-1)^{k+i}\prod_{j \neq i} |a_j - a_i|^{-1}}_{c_i} f(a_i) $$

como desee. $\blacksquare$


Acabado intrincado, pero aún falta más

Ahora mostraré el final de la prueba , pero dejaremos una parte bonita para el final. ¿Cómo termina la prueba? Bueno, tendríamos $f'(\xi) = \sum_{i=1}^{k+1} c_if(a_i)$ para algunos $a_i \in E,c_i$ y $\xi$ . Por el límite de la derivada, $\beta \leq \sum_{i=1}^{k+1} c_if(a_i)$ .

Ahora encontraremos una relación de la forma $|E|^k \leq \frac{k!C^k}{|c_i|}$ donde $C$ es una constante independiente de todos los parámetros. Esto se hará mediante una muy buena elección de $a_i$ . Una vez hecho esto, obtenemos : $$ \beta \leq \sum_{i=1}^{k+1} f(a_i)\frac{k!C^k}{|E|^k} \leq (k+1)! \frac{C^k}{|E|^k} \max_{i} f(a_i) \leq (k+1)! \frac{C^k}{|E|^k} \epsilon $$

y por lo tanto $$ |E| \leq C\sqrt[k]{\frac{(k+1)!\epsilon}{\beta}} $$

que es el límite deseado.


Desigualdad

Ahora demostraremos la afirmación de la sección anterior. Para ello, haremos dos observaciones :

  • Considere la cantidad $\prod_{j \neq i} |a_j - a_i|$ . Esto se maximiza básicamente cuando el $a_i$ están lo más separadas posible unas de otras. Es obvio, entonces, que cuando sea posible, deben estar uniformemente distribuidos.

  • Supongamos que $E$ no es un intervalo. Entonces, la cuestión es que la desigualdad para $E$ se demuestra probando la desigualdad para el intervalo más pequeño que contiene a $E$ simplemente porque el $a_i$ siguen estando en el intervalo mayor. Por lo tanto, en esta parte podemos trabajar sólo con intervalos.

Una vez hechas estas dos observaciones $E = [c,d]$ y considerar la $k+1$ "puntos "uniformemente distribuidos $a_i = \frac{i}{k}c + \frac{k-i}{k}d$ pour $i=0,...,k$ . Con estos puntos , podemos utilizar una desigualdad como la de Jensen para demostrar que la $c_i$ se minimiza en $\frac{k\pm 1}{2}$ pour $k$ impar, y en $\frac k2$ pour $k$ par, ya que el valor absoluto es log-convexo.

Con ellos, el mínimo $c_i$ para $k$ impar,incluso respectivamente se convierten en : $$ \frac{k+1}{2k} \prod_{i=1}^{\frac{k-1}{2}} \frac{i^2}{k^2} \quad ;\quad \prod_{i=1}^{\frac{k}{2}} \frac{i^2}{k^2} $$

La (última pero no menos importante) observación milagrosa en este punto es que ambas cantidades tienen buenos límites. Esto se deduce de los límites relativos a la aproximación de Stirling: para la segunda, por ejemplo, tenemos $\frac{(k/2)!^2}{k^k}\geq \frac{2 \pi e^{-k}k^{k+1}}{2^{k+1}k^{k}} = k\pi(e^{-k}2^{-k}) \geq (2e)^{-k}$ . El otro puede abordarse de forma similar.

Por lo tanto, podemos tomar $C = 2e$ .


La declaración final diría entonces :

Si $f^{k} \geq \beta$ en $[a,b]$ entonces para cualquier $\epsilon>0$ , $$ |\{x : |f(x)| \leq \epsilon\}| \leq (2e)\sqrt[k]{(k+1)!\frac{\epsilon}{\beta}} $$

Creo que será difícil mejorar estas constantes, a menos que se afine aún más la situación. Dicho esto, mi principal objetivo era demostrar que esta cuestión es mucho más complicada de lo que parece en un principio.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X