Dejemos que $f:[0,1]\rightarrow$ $\mathbb{R}$ sea continua y $f(1)=0$ . Demostrar que $\displaystyle\lim_{n \to \infty}\int_0^1 \! x^nf(x) \, \mathrm{d}x=0.$
Esto es lo que he hecho.
Dejemos que $\epsilon>0$ . Dividir la integral en dos partes.
$\displaystyle\int_0^1 \! x^nf(x) \, \mathrm{d}x$ = $\displaystyle\int_0^{1-\epsilon} \! x^nf(x) \, \mathrm{d}x + \displaystyle\int_{1-\epsilon}^1 \! x^nf(x) \, \mathrm{d}x$ .
Desde $x^n\rightarrow0$ uniformemente en $[0,1-\epsilon]$ la primera integral va a cero cuando tomamos el límite.
Ahora es la segunda integral la que me da problemas. Quería decir que como f es uniformemente continua en $[0,1]$ tenemos que
$\displaystyle\int_{1-\epsilon}^1 \! x^nf(x) \, \mathrm{d}x=\displaystyle\int_{1-\epsilon}^1 \! x^n(f(x)-f(1)) \, \mathrm{d}x<\displaystyle\int_{1-\epsilon}^1 \! \epsilon \, \mathrm{d}x$ para cualquier $x\in[1-\epsilon,1]$ .
¿Es esto cierto? Cualquier sugerencia sería útil. Gracias.