$$ \lim_{n\to\infty } 1 =\lim_{n\to\infty }\frac{n}{n} =\lim_{n\to\infty }\frac{\overbrace{1+1+\ldots+1}^{n \text{ times}}}{n} =\lim_{n\to\infty }\frac{1}{n} + \lim_{n\to\infty }\frac{1}{n} + \ldots =0. $$ Está claro que es incorrecto, pero ¿por qué?
Respuestas
¿Demasiados anuncios?Porque $\infty\cdot0$ es indeterminado . Lo que has escrito es lo mismo que $1=\displaystyle\lim_{n\to\infty}\frac nn=\lim_{n\to\infty}n\cdot\lim_{n\to\infty}\frac1n=$ $=\infty\cdot0=\underbrace{0+0+0+...}_{\begin{align}\text{conveniently 'forgetting' to }\\\text{mention the 'number' of 0's}\end{align}}\overset{\text{"obviously"}}=0$ . Por la misma razón, $\displaystyle\lim_{n\to\infty}\left(1+\frac1n\right)^n=\left(1+0\right)^\infty$ $=$ $=1\cdot1\cdot1\cdot\,...=1\neq e$ .
A diferencia de lo que decía Luciano, es posible dar un significado preciso (piénsese en la teoría de la medida) a una suma infinita de límites, y la respuesta puede ser 0 bajo convenciones adecuadas. Sin embargo, el problema estaba en el paso de dividir el límite. Hay un teorema que demuestra que se puede dividir un límite de una suma de deux términos en la suma de sus límites siempre que existan . Eso nunca puede dar lugar a una suma infinita.