En primer lugar, la igualdad se mantiene, como: $$\lim_{n\to\infty}\sum_{k=0}^n\binom n k \left(\frac x n\right)^k =\lim_{n\to\infty}\left(\left(1+\frac{x}{n}\right)^n\right) = e^x = \sum_{k=0}^\infty \frac{x^k}{k!} $$
Tener un limes más de una serie, esto debería ser un objetivo de primer orden para no estándar de razonamiento, como la que acaba de sustituir en $h$ $n$ donde $h$ es un infinito hyperreal y soltar el límite:
$$\sum_{k=0}^h\binom h k \left(\frac x h\right)^k \tag{i}$$
Ahora todo lo que debe hacer debe ser para mostrar que esta suma es infinitesimalmente cerca de $\displaystyle \sum_{k=0}^\infty \frac{x^k}{k!}$
Así, mediante la transformación de $(i)$, tenemos $$\displaystyle\sum_{k=0}^h\binom h k \left(\frac x h\right)^k =
\sum_{k=0}^h \frac{h!}{k!(h-k)!} \left(\frac x h\right)^k
=
\sum_{k=0}^h \frac{h!}{h^k(h-k)!} \frac {x^k} {k!} $$
Ahora, dividimos la suma de dos partes: La natural sumandos, y el (infinito) hypernatural sumandos.
El natural sumandos deben ser infinitesimalmente cerca de nuestro objetivo de la suma y el hypernatural sumandos deben ser infinitesimalmente cerca de 0.
Aquí es donde mi argumentación se vuelve grotesco. Hasta donde yo sé, la comparación de infinitos hyperreals es un infructuoso esfuerzo, ya que su diferencia/relación puede ser cualquier hyperreal valor. Entonces, tengo que argumentar el uso de los límites conocidos de regular las secuencias:
$$ \lim_{k\to\infty} \frac {x^k}{k!} = 0 \qquad \lim_{k\to\infty} \frac {n!}{n^k} = 0 $$ El uso de estos dos límites, se puede argumentar (Deje $d_1,d_2$ ser infinitesimals):
$$ \sum_{k\in\mathbb{^*N/N}\\k\le h}^h \frac{h!}{h^k(h-k)!} \frac {x^k} {k!} \aprox \sum_{k\in\mathbb{^*N/N}\\k\le h}^h \frac{h!}{h^k(h-k)!} d_1 \aprox \sum_{k\in\mathbb{^*N/N}\\k\le h}^h \frac{d_1 d_2}{(h-k)!}\ \aprox 0 $$
El argumento aquí es que cada sumando $a_k$ es infinitamente menor que $h$, por lo que incluso la infinita suma es infinitesimalmente cerca de $0$.
(Pregunta 1: ¿esta argumentación correcta, y puede ser más fácil?)
Y para la parte natural de la suma, el uso de $\frac {h-i}{h} \approx \frac {h}{h}\approx 1$$i\in\mathbb{R}$:
$$ \sum_{k\in\mathbb{N}} \frac{h!}{h^k(h-k)!} \frac {x^k} {k!} = \sum_{k\in\mathbb{N}} \frac {h\cdot (h-1)\cdots(h-k+1))}{h^k} \frac {x^k} {k!} \underbrace{\aprox}_{(1)} \sum_{k\in\mathbb{N}} \frac{h^k}{h^k} \frac {x^k} {k!} = \sum_{k\in\mathbb{N}} \frac {x^k} {k!}$$
Tenga en cuenta que (1) tiene como sólo hay un número finito de $\approx$-transformaciones, es decir, el error introducido no se puede resumir a una cantidad significativa.
(Pregunta 2: ¿esta argumentación correcta? Se siente olor a pescado)
Reaccionando en el manchado de los errores que he tratado de corregir el razonamiento. En lugar de dividir la suma de $\displaystyle\sum_{k=0}^h$ $\displaystyle\sum_{k\in\mathbb{N}}$ $\displaystyle\sum_{k\in\mathbb{^*N/N}}$ ahora estoy probando una división en estas dos cantidades:
$\displaystyle\sum_{k=0}^{h_1}$ $\displaystyle\sum_{k=h_1}^{h_2}$ donde $h_1,h_2$ son infinito hyperreals. Ahora, la respuesta de los subconjuntos de a $\mathbb{^*N}$ debe ser interno.
La idea detrás de este enfoque es que el $h_1 << h_2$, por lo que el $\displaystyle\sum_{k=0}^{h_1}$ puede tomar un papel similar al de la suma de $\displaystyle\sum_{k\in\mathbb{N}}$.
Por lo tanto, elegimos $h_1$, de modo que $\frac{h_1}{h_2} \approx 0$. Podemos hacer esto sin pérdida de generalidad, podemos encontrar una infinita hyperreal $h_1$ para cualquier infinita hyperreal $h_2$ (por ejemplo,$h_1 := \lfloor\sqrt{h_2}\rfloor$).
Ahora la argumentación se traduce en lugar de analógica:
$$ \sum_{k=0}^{h_2} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!} = \bigg(\sum_{k=0}^{h_1} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!}\bigg) + \bigg(\sum_{k=h_1}^{h_2} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!}\bigg) $$
$$ \sum_{k=0}^{{h_1}} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!} = \sum_{k=0}^{{h_1}} \frac{({h_2}\cdot ({h_2}-1)\cdots({h_2}-k+1))}{{h_2}^k} \frac {x^k} {k!} =\\ \sum_{k=0}^{h_1} \frac{{h_2}^k}{{h_2}^k} \frac {x^k} {k!} +\Delta_k= \sum_{k\in\mathbb{N}} \frac {x^k} {k!} + \Delta_k$$
Aquí, $\Delta_k$ se supone que es la diferencia que se define de modo que la ecuación tiene. Ahora tenemos que mostrar $\sum_{k=0}^{h_1} \Delta_k \approx 0$:
$$|\Delta_k| \underbrace{\le}_{\#1} \frac 2 {h_2} \cdot \frac {x^k}{k!} \underbrace{\le}_{\#2} \frac 2 {h_2} \implies \sum_{k=0}^{h_1} |\Delta_k| \le\frac{(h_1+1)\cdot 2} {h_2} \approx 0$$
#1: Este es un tiempo de cálculo con un par de apreciaciones, pero debe ser bastante claro.
#2: Esta desigualdad se cumple para casi todos los $k$ $\frac{x^k}{k!}$ tiende a 0.
Y por lo tanto, $\sum_{k=0}^{h_1} \Delta_k \approx 0$ mantiene.
Finalmente, por la suma de $\displaystyle \sum_{k=h_1}^{h_2} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!}$ volvemos a usar análogos argumentos:
$$ \sum_{k=h_1}^{h_2} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!} \aprox \sum_{k=h_1}^{h_2} \frac{d_1 \cdot {h_2}!}{{h_2}^k({h_2}-k)!} \aprox \sum_{k=h_1}^{h_2} \frac{d_1 d_2}{({h_2}-k)!} =\\ d_1 d_2 \sum_{k=h_1}^{h_2} \frac{1}{({h_2}-k)!} = d_1 d_2 \sum_{k=0}^{h_2-h_1} \frac{1}{k!} \aprox d_1 d_2 e \aprox 0 $$