El truco es un replanteamiento de él en un lenguaje que sea familiar para la optimización.
Deje $g(a,b) = b - a$. Queremos minimizar $g$ sujeto a la restricción $h(a,b) = \int_a^b f(t) \ dt = \alpha$ algunos $\alpha \in (0,1)$.
Tenga en cuenta que la restricción no está vacía porque $\int_{\mathbb R}f = 1 $ implica que debe haber al menos un par de $(a,b)$ que satisface $h(a,b) = \alpha$.
Utilizando multiplicadores de Lagrange, $\nabla g - \lambda \nabla h = 0$ fib
$$-1 + \lambda \frac{\partial h}{\partial a} = 0 \ \ \ \text{ and } \ \ \ 1 + \lambda \frac{\partial h}{\partial b} = 0$$
Aplicar el Teorema Fundamental del Cálculo y listo.
Este es un buen resultado. He intentado en un principio para construir un contraejemplo.
Intuitivamente, creo que me he convencido a mí misma de que tiene sentido: en la optimización del intervalo de $[a,b]$, existe algún valor de a $x \in (a,b)$ que $f(x) > \max\left( f(a), f(b) \right)$. Ahora mira el escenario alternativo intervalos de $J= [a\pm\delta_1, b\pm\delta_2]$, que mantienen $\int_J f = \alpha$. Si $f(a) \neq f(b)$ parece que nos puede hacer $J$ más corto de $b - a$.
Si alguien puede convertir en un argumento formal sería interesante para ver.