Si tengo una función, digamos $f(x)$ y puedo demostrar que la función disminuye con $x$ y que converge a una constante cuando $x = \infty$ ¿eso demuestra que disminuye a un ritmo decreciente? En otras palabras, ¿se $f(i+1) < f(i) \text { and } f(\infty) = c \to f(i+1) - f(i+2) < f(i)-f(i+1)$ ? No veo cómo podría ser de otra manera, pero a menudo paso por alto cosas. Además, ¿sería lo mismo que decir que, si puedo demostrar que la primera derivada es negativa y que la función converge, que la segunda derivada debe ser positiva?
Respuestas
¿Demasiados anuncios?La tasa de disminución tenderá a cero en el límite, pero eso no significa que la tasa de disminución sea mismo siempre decreciente. En otras palabras, $f\to c$ implica $\Delta f\to0$ (la diferencia hacia delante) y la monotonicidad garantiza $\Delta f<0$ pero todavía es posible que $\Delta^2 f $ (la segunda diferencia) para alternar el signo.
He aquí un gráfico para visualizar cómo es posible (a escala local):
En lo anterior, los puntos negros representan una secuencia monótona decreciente (que diremos que converge a algo). Ponemos entre cada término negro un verde término: cada término verde es ligeramente más bajo que el punto negro anterior, y ligeramente más alto que el siguiente punto negro (puse líneas rojas y azules para hacer esto más evidente), por lo que los puntos verdes y negros juntos crean un nuevo secuencia monótona decreciente. Sin embargo, mira el pendientes de las líneas anaranjadas y moradas: las pendientes se hacen más pequeñas y más grandes y así sucesivamente, alternando. Pero las pendientes representan la diferencia de avance $\Delta a_n = a_{n+1}-a_n$ , por lo que esto significa la segunda diferencia hacia adelante $\Delta^2a_n$ ¡está cambiando de signo!
En otras palabras, ¿se $f(i+1) < f(i) \text { and } f(\infty) = c \to f(i+1) - f(i+2) < f(i)-f(i+1)$ ?
No. Considera, por ejemplo: $$ f(2n) = 5\times2^{-n} $$ $$ f(2n+1) = 3\times2^{-n}$$ Esto es estrictamente decreciente $\mathbb N\to \mathbb Q$ y converge hacia 0, pero las primeras diferencias siguen oscilando hacia arriba y hacia abajo.
Voy a reformular un poco.
Si tienes una función monótona que tiene un límite finito, entonces también debes tener que el límite de la derivada es 0 (y la segunda derivada también, para abordar tu pregunta de convexidad).
¿Por qué? Asumir que no - lleva a una contradicción. Viene rápidamente.
Quería señalar que la condición de monotonía es importante aquí - incluso una función que tiene un límite pero no es monótona podría tener derivadas locas con un comportamiento muy poco intuitivo.