Acababa de aprender en la clase de teoría de la medida sobre el teorema de convergencia monótona en esta versión:
Para cada secuencia monótonamente creciente de funciones $f_n$ de un espacio medible $X$ a $[0, \infty]$, $$ \text{si}\quad \lim_{n\to \infty}f_n = f, \quad\text{entonces}\quad \lim_{n\to \infty}\int f_n \, \mathrm{d}\mu = \int f \,\mathrm{d}\mu . $$
Intenté averiguar por qué este teorema se aplica solo para una integral de Lebesgue, pero no encontré un contraejemplo para integrales de Riemann, así que agradecería su ayuda.
(Supongo que $f$ podría no ser integrable en algunos casos, pero quiero un ejemplo concreto.)