Mi profesor le dio $a_n=\frac{1}{n\log n}$$n \geq 2$, como tal, un ejemplo pero no puedo entender por qué esto es cierto. Estoy más que aceptar que la serie $\sum_{n=2}^{\infty}\frac{1}{n\log n}$ es en realidad convergente en lugar de divergente. Aquí está mi razonamiento:
Tenga en cuenta que $\sum_{n=2}^{10}\frac{1}{n\log n}$ es algún número finito.
Tenga en cuenta que $\sum_{n=2}^\infty \frac{1}{n\log n} = \sum_{n=2}^{10}\frac{1}{n\log n} + \sum_{n=11}^{\infty}\frac{1}{n\log n}$.
Pero, $n\log n > n$$n>10$. Puedo dejar a $n\log n =n^p$ donde $p>1$. A continuación, utilizando la serie p, $\sum_{n=11}^{\infty}\frac{1}{n\log n} = \sum_{n=11}^\infty \frac{1}{n^p}$ converge para algún número finito.
Por lo tanto, $\sum_{n=2}^\infty \frac{1}{n\log n} = \sum_{n=2}^{10}\frac{1}{n\log n} + \sum_{n=11}^\infty \frac{1}{n\log n}$ deben converger. $\blacksquare$
Mi profesor dijo que este era un ejemplo para darnos una intuición $p$-serie funcionará para cualquier $p>1$ aunque $p=1.0000000000000001$ o $p$ es mayor que $1$ muy muy pequeña cantidad.