4 votos

¿Cuál es la manera no estándar para argumentar $\lim_{n\to\infty}\sum_{k=0}^n\binom n k (\frac x n)^k = \sum_{k=0}^\infty \frac{x^k}{k!}$

En primer lugar, la igualdad se mantiene, como: $$\lim_{n\to\infty}\sum_{k=0}^n\binom n k \left(\frac x n\right)^k =\lim_{n\to\infty}\left(\left(1+\frac{x}{n}\right)^n\right) = e^x = \sum_{k=0}^\infty \frac{x^k}{k!} $$

Tener un limes más de una serie, esto debería ser un objetivo de primer orden para no estándar de razonamiento, como la que acaba de sustituir en $h$ $n$ donde $h$ es un infinito hyperreal y soltar el límite:

$$\sum_{k=0}^h\binom h k \left(\frac x h\right)^k \tag{i}$$ Ahora todo lo que debe hacer debe ser para mostrar que esta suma es infinitesimalmente cerca de $\displaystyle \sum_{k=0}^\infty \frac{x^k}{k!}$
Así, mediante la transformación de $(i)$, tenemos $$\displaystyle\sum_{k=0}^h\binom h k \left(\frac x h\right)^k = \sum_{k=0}^h \frac{h!}{k!(h-k)!} \left(\frac x h\right)^k = \sum_{k=0}^h \frac{h!}{h^k(h-k)!} \frac {x^k} {k!} $$

Ahora, dividimos la suma de dos partes: La natural sumandos, y el (infinito) hypernatural sumandos.
El natural sumandos deben ser infinitesimalmente cerca de nuestro objetivo de la suma y el hypernatural sumandos deben ser infinitesimalmente cerca de 0.

Aquí es donde mi argumentación se vuelve grotesco. Hasta donde yo sé, la comparación de infinitos hyperreals es un infructuoso esfuerzo, ya que su diferencia/relación puede ser cualquier hyperreal valor. Entonces, tengo que argumentar el uso de los límites conocidos de regular las secuencias:

$$ \lim_{k\to\infty} \frac {x^k}{k!} = 0 \qquad \lim_{k\to\infty} \frac {n!}{n^k} = 0 $$ El uso de estos dos límites, se puede argumentar (Deje $d_1,d_2$ ser infinitesimals):

$$ \sum_{k\in\mathbb{^*N/N}\\k\le h}^h \frac{h!}{h^k(h-k)!} \frac {x^k} {k!} \aprox \sum_{k\in\mathbb{^*N/N}\\k\le h}^h \frac{h!}{h^k(h-k)!} d_1 \aprox \sum_{k\in\mathbb{^*N/N}\\k\le h}^h \frac{d_1 d_2}{(h-k)!}\ \aprox 0 $$

El argumento aquí es que cada sumando $a_k$ es infinitamente menor que $h$, por lo que incluso la infinita suma es infinitesimalmente cerca de $0$.
(Pregunta 1: ¿esta argumentación correcta, y puede ser más fácil?)

Y para la parte natural de la suma, el uso de $\frac {h-i}{h} \approx \frac {h}{h}\approx 1$$i\in\mathbb{R}$:

$$ \sum_{k\in\mathbb{N}} \frac{h!}{h^k(h-k)!} \frac {x^k} {k!} = \sum_{k\in\mathbb{N}} \frac {h\cdot (h-1)\cdots(h-k+1))}{h^k} \frac {x^k} {k!} \underbrace{\aprox}_{(1)} \sum_{k\in\mathbb{N}} \frac{h^k}{h^k} \frac {x^k} {k!} = \sum_{k\in\mathbb{N}} \frac {x^k} {k!}$$

Tenga en cuenta que (1) tiene como sólo hay un número finito de $\approx$-transformaciones, es decir, el error introducido no se puede resumir a una cantidad significativa.

(Pregunta 2: ¿esta argumentación correcta? Se siente olor a pescado)


Reaccionando en el manchado de los errores que he tratado de corregir el razonamiento. En lugar de dividir la suma de $\displaystyle\sum_{k=0}^h$ $\displaystyle\sum_{k\in\mathbb{N}}$ $\displaystyle\sum_{k\in\mathbb{^*N/N}}$ ahora estoy probando una división en estas dos cantidades: $\displaystyle\sum_{k=0}^{h_1}$ $\displaystyle\sum_{k=h_1}^{h_2}$ donde $h_1,h_2$ son infinito hyperreals. Ahora, la respuesta de los subconjuntos de a $\mathbb{^*N}$ debe ser interno.
La idea detrás de este enfoque es que el $h_1 << h_2$, por lo que el $\displaystyle\sum_{k=0}^{h_1}$ puede tomar un papel similar al de la suma de $\displaystyle\sum_{k\in\mathbb{N}}$.

Por lo tanto, elegimos $h_1$, de modo que $\frac{h_1}{h_2} \approx 0$. Podemos hacer esto sin pérdida de generalidad, podemos encontrar una infinita hyperreal $h_1$ para cualquier infinita hyperreal $h_2$ (por ejemplo,$h_1 := \lfloor\sqrt{h_2}\rfloor$).

Ahora la argumentación se traduce en lugar de analógica:

$$ \sum_{k=0}^{h_2} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!} = \bigg(\sum_{k=0}^{h_1} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!}\bigg) + \bigg(\sum_{k=h_1}^{h_2} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!}\bigg) $$

$$ \sum_{k=0}^{{h_1}} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!} = \sum_{k=0}^{{h_1}} \frac{({h_2}\cdot ({h_2}-1)\cdots({h_2}-k+1))}{{h_2}^k} \frac {x^k} {k!} =\\ \sum_{k=0}^{h_1} \frac{{h_2}^k}{{h_2}^k} \frac {x^k} {k!} +\Delta_k= \sum_{k\in\mathbb{N}} \frac {x^k} {k!} + \Delta_k$$

Aquí, $\Delta_k$ se supone que es la diferencia que se define de modo que la ecuación tiene. Ahora tenemos que mostrar $\sum_{k=0}^{h_1} \Delta_k \approx 0$:

$$|\Delta_k| \underbrace{\le}_{\#1} \frac 2 {h_2} \cdot \frac {x^k}{k!} \underbrace{\le}_{\#2} \frac 2 {h_2} \implies \sum_{k=0}^{h_1} |\Delta_k| \le\frac{(h_1+1)\cdot 2} {h_2} \approx 0$$

#1: Este es un tiempo de cálculo con un par de apreciaciones, pero debe ser bastante claro.
#2: Esta desigualdad se cumple para casi todos los $k$ $\frac{x^k}{k!}$ tiende a 0.

Y por lo tanto, $\sum_{k=0}^{h_1} \Delta_k \approx 0$ mantiene.

Finalmente, por la suma de $\displaystyle \sum_{k=h_1}^{h_2} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!}$ volvemos a usar análogos argumentos:

$$ \sum_{k=h_1}^{h_2} \frac{{h_2}!}{{h_2}^k({h_2}-k)!} \frac {x^k} {k!} \aprox \sum_{k=h_1}^{h_2} \frac{d_1 \cdot {h_2}!}{{h_2}^k({h_2}-k)!} \aprox \sum_{k=h_1}^{h_2} \frac{d_1 d_2}{({h_2}-k)!} =\\ d_1 d_2 \sum_{k=h_1}^{h_2} \frac{1}{({h_2}-k)!} = d_1 d_2 \sum_{k=0}^{h_2-h_1} \frac{1}{k!} \aprox d_1 d_2 e \aprox 0 $$

3voto

Su paso (1) no es del todo correcta por varias razones:

A. si bien es cierto que $\frac{(h\cdot (h-1)\cdots(h-k+1))}{h^k}\approx 1$, tenemos infinitos sumandos en la suma que está trabajando, y así la relación de infinito proximidad no puede sostener.

B. Una razón más fundamental es que la expresión $\sum_{k\in\mathbb{N}}$ está mal definida. Es decir, se intenta evaluar una infinita suma, pero la suma en cuestión no es interna. Por lo tanto, no hay ninguna manera de definir, ya que la transferencia se limita al ámbito interno de las declaraciones.

Euler, por supuesto, utiliza argumentos con infinitas sumas de dinero que puede ser justificado con un poco de esfuerzo; ver esta 2017 publicación en Revista de Filosofía General de la Ciencia.

La forma de hacer el trabajo es el uso de un hyperfinite suma con el índice de detener a $H\in {}^\ast\mathbb N \setminus \mathbb N$ (en lugar de las sumas externa conjuntos de índices).

0voto

Felix Marin Puntos 32763

$\newcommand{\bbx}[1]{\,\bbox[15px,border:1px groove armada]{\displaystyle{#1}}\,} \newcommand{\llaves}[1]{\left\lbrace\,{#1}\,\right\rbrace} \newcommand{\bracks}[1]{\left\lbrack\,{#1}\,\right\rbrack} \newcommand{\dd}{\mathrm{d}} \newcommand{\ds}[1]{\displaystyle{#1}} \newcommand{\expo}[1]{\,\mathrm{e}^{#1}\,} \newcommand{\ic}{\mathrm{i}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mrm}[1]{\mathrm{#1}} \newcommand{\pars}[1]{\left(\,{#1}\,\right)} \newcommand{\partiald}[3][]{\frac{\partial^{#1} #2}{\parcial #3^{#1}}} \newcommand{\raíz}[2][]{\,\sqrt[#1]{\,{#2}\,}\,} \newcommand{\totald}[3][]{\frac{\mathrm{d}^{#1} #2}{\mathrm{d} #3^{#1}}} \newcommand{\verts}[1]{\left\vert\,{#1}\,\right\vert}$

$\ds{\lim_{n \to \infty}\sum_{k = 0}^{n}{n \elegir k}\pars{x \sobre n}^{k} = \sum_{k = 0}^{\infty}{x^{k} \over k!}:\ {\Large ?}}$.

De cualquier manera $\ds{\bbx{\sum_{k = 0}^{n}{n \elegir k}\pars{x \sobre n}^{k} = \pars{1 + {x \sobre n}}^{n}}}$. Sin embargo, el largo caminoes: \begin{align} \sum_{k = 0}^{n}{n \choose k}\pars{x \over n}^{k} & = \sum_{k = 0}^{\infty}{n \choose n - k}\pars{x \over n}^{n - k} = \sum_{k = 0}^{\infty}{n \choose k} \braces{\pars{n - k}!\bracks{z^{n - k}}\expo{xz/n}} \\[2mm] & = n!\bracks{z^{n}}\expo{xz/n}\ \overbrace{\sum_{k = 0}^{\infty}{z^{k} \over k!}} ^{\ds{\expo{z}}}\ =\ n!\bracks{z^{n}}\expo{\pars{1 + x/n}z} \\[5mm] & = n!\,{\pars{1 + x/n}^{n} \over n!} = \pars{1 + {x \over n}}^{n} \,\,\,\stackrel{\mrm{as}\ n\ \to\ \infty}{\to}\,\,\,\expo{x} = \bbx{\sum_{k = 0}^{\infty}{x^{k} \over k!}} \end{align}

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X