5 votos

Límite de diferencias de la serie truncada y las integrales de dar de Euler-gamma, zeta y los registros. Por qué?

En el MSE-pregunta en un comentario a un naswer Michael Hardy trajo a colación el siguiente bien conocida límite de la expresión de Euler-gamma $$ \lim_{n \to \infty} \left(\sum_{k=1}^n \frac 1k\right) - \left(\int_{t=1}^n \frac 1t dt\right) = \gamma \tag 1$$

He probado algunas variaciones, y de forma heurística he encontrado por entero pequeño $m \gt 1$ $$ \lim_{n \to \infty} (\sum_{k=1}^n \frac 1{k^m}) - (\int_{t=1}^n \frac 1{t^m} dt) = \zeta(m) - \frac 1{m-1} \tag 2$$

Con más de generalización de la real, $m$ parece por Pari/GP que eq (1) puede ser visto como un límite para $m \to 1$ y el de Euler-$\gamma$ puede ser visto como el resultado de la Stieltjes potencia de la serie representación de $\zeta(1+x)$ con el $\frac 1{1-(1+x)}$plazo eliminado y luego se evalúa en $x=0$

P1: ¿hay alguna explicación intuitiva de esto (o, por ejemplo, una gráfica de demostración)?

Otra generalización dio de forma heurística también más divertido hipótesis: $$ \tag 3$$ $$ \pequeño \begin{eqnarray} \lim_{n \to \infty} (\sum_{k=2}^n \frac 1{k(k-1)}) &-& (\int_{t=2}^n \frac 1{t(t-1)} dt) &=& \frac 1{1!} \cdot(\frac 11 - 1\cdot \log(2)) \\ \lim_{n \to \infty} (\sum_{k=3}^n \frac 1{k(k-1)(k-2)}) &-& (\int_{t=3}^n \frac 1{t(t-1)(t-2)} dt) &=& \frac 1{2!} \cdot(\frac 12 - 2\cdot \log(2) + 1\cdot \log(3) ) \\ \lim_{n \to \infty} (\sum_{k=4}^n \frac 1{k...(k-3)}) &-& (\int_{t=4}^n \frac 1{t...(t-3)} dt) &=& \frac 1{3!} \cdot(\frac 13 - 3\cdot \log(2) + 3\cdot \log(3)- 1\cdot \log(4) ) \\ \end{eqnarray} $$ donde los coeficientes en la rhs son el binomio-de los coeficientes y creo que el sistema es lo suficientemente evidente para la continuidad de la ad libitum.
De nuevo podría ser posible expresar esto con más límites: se podría escribir, por ejemplo, los rhs en la tercera fila como $$ \lim_{h\to 0} \frac 1{3!} \cdot(- \small \binom{3}{-1+h} \cdot \log(0+h) +1 \cdot \log(1) - 3\cdot \log(2) + 3\cdot \log(3)- 1\cdot \log(4) ) \tag 4$$

P2: Es que (3) verdadero y cómo probar (si es que no es demasiado complicado...)? Y (4) de alguna manera significativa?

3voto

Roger Hoover Puntos 56

Para Q1. la prueba sólo se basa en la suma por partes.

Para Q2., usted puede evaluar $$S_k = \sum_{n=1}^{+\infty}\frac{1}{n(n+1)\ldots(n+k)} = \frac{1}{k!}\sum_{n=1}^{+\infty}\frac{1}{n\binom{n+k}{k}}$$ mediante la explotación parcial de las fracciones de la descomposición y el teorema de los residuos, o simplemente el maravilloso telescópica truco $\frac{1}{n(n+k)}=\frac{1}{k}\left(\frac{1}{n}-\frac{1}{n+k}\right)$, dando:

$$\begin{eqnarray*}S_k &=& \frac{1}{k}\left(\sum_{n=1}^{+\infty}\frac{1}{n(n+1)\ldots(n+k-1)}-\sum_{n=1}^{+\infty}\frac{1}{(n+1)(n+2)(n+k)}\right)\\ &=&\frac{1}{k}\cdot\frac{1}{1\cdot 2\cdot\ldots\cdot k}=\frac{1}{k\cdot k!}.\end{eqnarray*}$$ El mismo telescópica técnica se aplica a la integral: $$I_k = \int_{1}^{+\infty}\frac{dt}{t(t+1)\ldots(t+k)}=\frac{1}{k}\int_{0}^{1}\frac{dt}{(t+1)\ldots(t+k)}$$ y ahora la RHS puede ser evaluado a través de la fracción parcial de descomposición, ya que: $$\frac{1}{(t+1)\ldots(t+m)}=\frac{1}{(m-1)!}\sum_{j=0}^{m-1}\frac{(-1)^j\binom{m-1}{j}}{t+j+1}.$$ Tenemos $\int_{0}^{1}\frac{dt}{t+h}=\log(h+1)-\log(h)=\log\left(1+\frac{1}{h}\right)$, por lo tanto: $$\begin{eqnarray*}I_k &=& \frac{1}{k(k-1)!}\sum_{j=0}^{k-1}(-1)^j\binom{k-1}{j}\left(\log(j+2)-\log(j+1)\right)\end{eqnarray*}$$ sólo le da a su $(3)$ tras el reordenamiento de los términos.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X