Actualmente estoy viendo una conferencia de MIT sobre diferenciar las imágenes y los registros, y menciona que$a_k = (1+\frac{1}{k})^k = e.$
He visto la prueba y "entiendo" que$\lim_{k \to \infty} \ln(a_k) = 1$ s0 el límite de$a_k = e$.
El problema es cuando leo$e = \lim_{k \to \infty} (1+\frac{1}{k})^k$, parece que dice$e = 1$ porque lo leí como$e = (1+(0))^\infty = 1$, y me está costando trabajo averiguar dónde está la confusión.
Gracias.