Este es un problema de la práctica de un examen en un análisis real de pregrado de la clase, pero me etiqueten como una tarea de todos modos.
Supongamos que $a_k>0$ y que la serie $\sum_{k=1}^\infty a_k$ diverge. Vamos $S_n$ = $\sum_{k=1}^n a_k$ y definir $b_1 = a_1$$b_n = \sqrt{S_n}-\sqrt{S_{n-1}}$$n\ge2$. Demostrar que $\sum_{k=1}^\infty b_k$ diverge, y que $\lim_{x\to\infty}\frac{b_n}{a_n}=0$. A la conclusión de que no hay un "más pequeño" comparación de la serie a de la prueba de la divergencia.
Por lo $S_n = S_{n-1}+a_n$, y como n aumenta ese $a_n$ van a divergir. Las raíces cuadradas están afectando a mí, no sé cómo empezar con el límite y entiendo la última declaración, pero no veo cómo puedo concluir.