Tengo el siguiente problema.
Determinar la convergencia o divergencia de la secuencia de $(x_n)$ donde $$x_n=\frac{1}{n+1} + \frac{1}{n+2} + \cdots + \frac{1}{2n}.$$
Mi primer planteamiento fue:
Bueno, ya $(x_n)$ es la suma de las secuencias de $\left(\frac{1}{n+1}\right),\ldots,\left(\frac{1}{2n}\right)$ y cada uno de ellos son convergentes, en el hecho de que converge a $0$, entonces el límite de $(x_n)$ debe $0$.
Mi segundo enfoque fue:
Si hacemos los cálculos, tenemos que $$x_{n+1}-x_n=\frac{1}{(2n+1)(2n+2)}>0$$ then $$x_{n+1}>x_n$$ i.e., $x_n$ es un aumento de la secuencia.
También, como en $x_n$ suma $n$ elementos que son menos o equan de $\frac{1}{n+1}$, luego $$x_n=\frac{1}{n+1} + \frac{1}{n+2} + \ldots + \frac{1}{2n}<\frac{n}{n+1}<1$$ i.e., $(x_n)$ es un almacén de secuencia.
Ahora, desde la $(x_n)$ es creciente y acotada de la secuencia, se deduce que su límite es el supremum de $(x_n)$.
Molesto pregunta.
Pero, ¿cómo $(x_n)$ puede converger a $0$ (como se muestra en mi primera aproximación) y, al mismo tiempo, converge a su supremum cuando se trata de un aumento de la secuencia? Puede ser de 0 a su supremum? Esto no es una contradicción?
Cualquier ayuda se agradece.