Estoy haciendo la revisión de mi clase de Análisis, y aquí hay uno de los problemas que vi en los exámenes pasados:
Sea $f: \mathbb{R} \to [0,1]$ continua y $x_0 \in (0,1)$. Define $x_n$ mediante recurrencia: \begin{equation} x_{n+1} = \frac{3}{4} x_n^2 + \frac{1}{4}\int_0^{|x_n|}f(x)dx \end{equation} Demostrar que $x_n$ es convergente, y encontrar su límite.
Creo que no es difícil demostrar la convergencia. Dado que $f(x) \geq 0$, la integral es no negativa. Por lo tanto, inductivamente $x_n \geq 0$ para todo $n$. Podríamos eliminar el valor absoluto.
También por inducción, $x_n \in (0,1)$, entonces tenemos $x_n^2 < x_n$, y podríamos concluir que $x_n$ es decreciente, porque $x_{n+1} \leq \frac{3}{4} x_n + \frac{1}{4} x_n = x_n$.
Una función decreciente con un límite inferior (es decir, $x_n \geq 0$) es convergente.
Sin embargo, no estoy seguro de cómo encontrar el límite. Por lo general, si tenemos una secuencia definida por recurrencia, simplemente podríamos hacer $x_{n+1} = x_n = x$, y resolver para $x$. Sin embargo, aquí tenemos una integral allí, me pregunto si necesitamos hacer algunas estimaciones y usar el Teorema del Sandwich.