Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

25 votos

¿Coinciden siempre el sumatorio Abel y el sumatorio zeta?

Se trata de una versión más centrada de Métodos de suma para series divergentes .

Sea an sea una secuencia de tales que lim et \lim_{s \to 0^{+}} > \sum a_n n^{-s} ambos existen. (En En particular, suponemos que ambas sumas en cuestión convergen en el región apropiada). ¿Es necesario que los límites sean iguales?


Ya he pensado en esto antes, y vuelvo a hacerlo gracias a la pregunta enlazada. Aquí están algunas cosas que he intentado:

Es cierto si a_n es periódica con media 0 .

Si es cierto para a_n entonces es cierto para la secuencia b_{kn+r}=a_n , b_m=0 si m \not \equiv r \mod k .

Es cierto para a_n=1 si n es un cuadrado par, -1 si n es un cuadrado impar y 0 de lo contrario. Intenté demostrar en general que, si es cierto para a_n entonces es cierto para b_{n^2}=a_n , b_m=0 para m no un cuadrado, pero no podía.

Parece ser cierto para a_n = (-1)^n \log n aunque no he comprobado todos los detalles.

No conozco ninguna secuencia explícita a_n que obedece a las hipótesis de la pregunta y no es (C, \alpha) - sumable para algunos \alpha . Así que es posible que esto sea realmente un teorema sobre la sumabilidad Cesaro superior. Pero sospecho que tales secuencias existen.

Una generalización natural es: Sea a_n , \lambda_n et \mu_n sean tres secuencias de números reales, con \lambda_n et \mu_n acercándose a \infty . Si \lim_{s \to 0^{+}} \sum a_n e^{-\lambda_n s} et \lim_{s \to 0^{+}} \sum a_n e^{-\mu_n s} ambos existen, ¿es necesario que sean iguales?

Hasta donde yo sé, el teorema de Tauber generalizado de Wiener no es aplicable.

13voto

Jon Galloway Puntos 320

Tengo muchas dudas, pero no tengo a mano un ejemplar de G.H. Hardy, Serie Divergente , 1949 - es mi principal referencia para este tipo de preguntas.

Como usted ha señalado correctamente, la pregunta generalizada es si \lim_{s\to 0^+} \sum a_n e^{-\lambda_n s} = \lim_{s\to 0^+} \sum a_n e^{-\mu_n s} para \lambda_n,\mu_n aumentando ambos a \infty . Y para esto la respuesta es un rotundo "no siempre". Consideremos, por ejemplo e^{-\lambda_n s} = x^n et e^{-\mu_n s} = x^{\lfloor 3n/2 \rfloor} para algunos cambios de variables x(s) y a_n = (-1)^n . Entonces el LHS es: 1 - x + x^2 - x^3 + x^4 - \dots = \frac 1 {1+x} \to \frac12 mientras que el RHS es: 1 - x + x^3 - x^4 + x^6 - \dots = \frac 1 {1 + x + x^2} \to \frac13 En general, al "espaciar" la secuencia alterna (-1)^n correctamente, se puede conseguir que sus sumas al estilo Abel converjan a cualquier número en [0,1] . Se trata de una versión más continua de "las series divergentes no son asociativas", al igual que "las series condicionalmente convergentes no son conmutativas". La cuestión es que, cambiando los coeficientes en \lim \sum a_n e^{-\lambda_n s} , se retuerce efectivamente la asociaciación. Pero puede ocurrir que el x^n y el n^{-s} son lo suficientemente regulares como para dar la misma respuesta.

Hardy [op. cit.] proporciona una serie de teoremas sobre cuándo coinciden estos diferentes métodos de suma, aunque su enfoque principal en el libro es cuando estos diferentes métodos de suma dan la misma respuesta.

9voto

Hashem Masoud Puntos 19

Creo que la respuesta es "sí". No tengo una razón general que explique por qué es así, aunque seguro que existe y está en alguna parte de la bibliografía.

En cualquier caso, para el problema que nos ocupa, tenemos por s > 0

\sum \frac{a_n}{n^s} = \frac{1}{\Gamma(s)}\int_0^\infty \sum a_n e^{-nt} t^{s-1} dt.

Edición: el intercambio de límite y suma utilizado aquí requiere una justificación, y esto se hace a continuación. Suponiendo que \sum a_n x^n \rightarrow \sigma podemos escribir \sum a_n e^{-nt} = (\sigma + \epsilon(t))\cdot e^{-t} donde \epsilon(t) \rightarrow 0 como t \rightarrow 0 y \epsilon(t) está acotada para todo t. En este caso

\sum \frac{a_n}{n^s} = \sigma + O\left(s\int_0^\infty \epsilon(t) e^{-t} t^{s-1} dt\right)

Demostrando que el término de error tiende a 0 es sólo una cuestión de epsilonética; para cualquier \epsilon > 0 hay \Delta para que |\epsilon(t)| < \epsilon para t < \Delta . Por lo tanto

\left|s\int_0^\infty \epsilon(t) e^{-t} t^{s-1} dt \right| < s\epsilon \int_0^\Delta t^{s-1} dt + s\int_\Delta^\infty e^{-t}t^{s-1}dt < \epsilon \Delta^s + s\int_\Delta^\infty e^{-t} t^{-1} dt.

Dejar s \rightarrow 0 nuestro término de error está limitado por \epsilon pero \epsilon por supuesto es arbitraria.

Edita: Justificar el intercambio de límite y suma anterior es sorprendentemente difícil. Necesitaremos

Lema: Si para fijo \epsilon > 0 las sumas parciales D_{\epsilon}(N) = \sum_{n=1}^N a_n/n^\epsilon = O(1), entonces

(a) A(N) = \sum_{n \leq N} a_n = O(n^\epsilon) y

(b) \sum_{n \leq N} a_n e^{-nt} = O(t^{-\epsilon}) ,

donde las constantes O dependen de \epsilon.

Esto, con la hipótesis de que \sum a_n/n^s converge para todo s > 0 implican las conclusiones a) y b) para todo positivo \epsilon .

Para demostrar la parte a), obsérvese que

\sum_{n \leq N} a_n = \sum_{n \leq N} a_n n^{-\epsilon}n^\epsilon = \sum_{n \leq N-1} D_{\epsilon}(n) (n^\epsilon - (n+1)^\epsilon) + D_\epsilon(N)N^\epsilon,

que se ve O(N^\epsilon) al tomar valores absolutos dentro de la suma.

Para demostrar la parte b), obsérvese que

t^\epsilon \sum_{n \leq N} a_n e^{-nt} = t^\epsilon \sum_{n=1}^{N-1} A(n)(e^{-nt} - e^{-(n+1)t}) + t^\epsilon A(N) e^{-Nt} = O \left( \sum_{n\leq N} (tn)^\epsilon e^{-nt}(1-e^{-t}) + (tN)^\epsilon e^{-Nt}\right).

Ahora, (tN)^\epsilon e^{-Nt} = O(1) y

\sum_{n\leq N} (tn)^\epsilon e^{-nt}(1-e^{-t}) = 2^\epsilon(1-e^{-t}) \sum_{n\leq N} (tn/2)^\epsilon e^{-nt/2} e^{-nt/2} = O\left(\frac{1-e^{-t}}{1-e^{-t/2}}\right) = O\left(\frac{1}{1+e^{t/2}}\right) = O(1),

y esto demuestra b).

Esto nos sirve para justificar el intercambio de suma e integral de la siguiente manera: observe que

\sum_{n=1}^N \frac{a_n}{n^s} = \frac{1}{\Gamma(s)}\int_0^\infty \sum_{n=1}^N a_n e^{-nt} t^{s-1} dt,

y por lo tanto

\frac{1}{\Gamma(s)}\int_0^\infty \lim_{N\rightarrow\infty}\sum_{n=1}^N a_n e^{-nt} t^{s-1} dt = \frac{1}{\Gamma(s)}\int_0^1 \lim_{N\rightarrow\infty}\sum_{n=1}^N a_n e^{-nt} t^{s-1} dt + \frac{1}{\Gamma(s)}\int_1^\infty \lim_{N\rightarrow\infty}\sum_{n=1}^N a_n e^{-nt} t^{s-1} dt.

En la primera integral, obsérvese que para \epsilon < s , \sum_{n \leq N} a_n e^{-nt} t^{s-1} = O(t^{s-\epsilon -1}) para todos N . Entonces por convergencia dominada en la primera integral, y convergencia uniforme de e^t \sum_{n=1}^N a_n e^{-nt} para t \geq 1 en el segundo, este límite es

\lim_{N\rightarrow\infty}\frac{1}{\Gamma(s)}\int_0^1 \sum_{n=1}^N a_n e^{-nt} t^{s-1} dt + \lim_{N\rightarrow\infty}\frac{1}{\Gamma(s)}\int_1^\infty \sum_{n=1}^N a_n e^{-nt} t^{s-1} dt = \lim_{N\rightarrow\infty} \sum_{n=1}^N a_n \frac{1}{\Gamma(s)}\int_0^\infty e^{-nt}t^{s-1} dt.

Esto es sólo \sum_{n=1}^\infty \frac{a_n}{n^s} .

Obsérvese entonces que no necesitamos suponer desde el principio que la suma infinita de Dirichlet tiende a algo como s \rightarrow 0 una vez que converge para cada s que está implícito en el comportamiento de la serie de potencias.

8voto

MobileCushion Puntos 217

G. H. Hardy, SERIE DIVERGENTE, página 76... "Es fácil dar ejemplos de series sumables (A,\log n) pero no sumable (A) : veremos, por ejemplo, que \sum n^{-1-ci} donde c>0 es una serie de este tipo".

Antes, en la página 73, vemos si una serie es a la vez sumable (A,\log n) y sumable (A) entonces las dos sumas son iguales.

7voto

KConrad Puntos 22631

No tengo nada que decir sobre este asunto del teorema de Abel para series de potencias y series de Dirichlet, pero quiero señalar que no existe un teorema de Abel para productos infinitos.

En 1908, Hardy (véase Collected Papers Vol. VI pp. 263--271) dio un ejemplo de una secuencia de números a_n tal que \prod_{n \geq 1} (1+a_n) converge y \lim_{x \rightarrow 1^{-}} \prod_{n \geq 1} (1+a_nx^n) = 2\prod_{n \geq 1}(1+a_n). Obsérvese el factor adicional de 2 a la derecha. Por el lado del producto de Euler, para {\rm Re}(s) > 1 considere la función \frac{\zeta(ms-(m-1))}{\zeta(s)} = \prod_{p} \frac{1-p^{-s}}{1 - p^{m-1-ms}}, donde m \geq 1 . Mientras que el lado derecho en s = 1 es igual a 1, utilizando la expresión analítica del lado izquierdo podemos comprobar que el límite de esta función como s \rightarrow 1^{+} es 1/m . Sea m sea un número entero positivo que sea al menos 2 para obtener un producto de Euler discontinuo en s = 1 .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X