Creo que la respuesta es "sí". No tengo una razón general que explique por qué es así, aunque seguro que existe y está en alguna parte de la bibliografía.
En cualquier caso, para el problema que nos ocupa, tenemos por s > 0
\sum \frac{a_n}{n^s} = \frac{1}{\Gamma(s)}\int_0^\infty \sum a_n e^{-nt} t^{s-1} dt.
Edición: el intercambio de límite y suma utilizado aquí requiere una justificación, y esto se hace a continuación. Suponiendo que \sum a_n x^n \rightarrow \sigma podemos escribir \sum a_n e^{-nt} = (\sigma + \epsilon(t))\cdot e^{-t} donde \epsilon(t) \rightarrow 0 como t \rightarrow 0 y \epsilon(t) está acotada para todo t. En este caso
\sum \frac{a_n}{n^s} = \sigma + O\left(s\int_0^\infty \epsilon(t) e^{-t} t^{s-1} dt\right)
Demostrando que el término de error tiende a 0 es sólo una cuestión de epsilonética; para cualquier \epsilon > 0 hay \Delta para que |\epsilon(t)| < \epsilon para t < \Delta . Por lo tanto
\left|s\int_0^\infty \epsilon(t) e^{-t} t^{s-1} dt \right| < s\epsilon \int_0^\Delta t^{s-1} dt + s\int_\Delta^\infty e^{-t}t^{s-1}dt < \epsilon \Delta^s + s\int_\Delta^\infty e^{-t} t^{-1} dt.
Dejar s \rightarrow 0 nuestro término de error está limitado por \epsilon pero \epsilon por supuesto es arbitraria.
Edita: Justificar el intercambio de límite y suma anterior es sorprendentemente difícil. Necesitaremos
Lema: Si para fijo \epsilon > 0 las sumas parciales D_{\epsilon}(N) = \sum_{n=1}^N a_n/n^\epsilon = O(1), entonces
(a) A(N) = \sum_{n \leq N} a_n = O(n^\epsilon) y
(b) \sum_{n \leq N} a_n e^{-nt} = O(t^{-\epsilon}) ,
donde las constantes O dependen de \epsilon.
Esto, con la hipótesis de que \sum a_n/n^s converge para todo s > 0 implican las conclusiones a) y b) para todo positivo \epsilon .
Para demostrar la parte a), obsérvese que
\sum_{n \leq N} a_n = \sum_{n \leq N} a_n n^{-\epsilon}n^\epsilon = \sum_{n \leq N-1} D_{\epsilon}(n) (n^\epsilon - (n+1)^\epsilon) + D_\epsilon(N)N^\epsilon,
que se ve O(N^\epsilon) al tomar valores absolutos dentro de la suma.
Para demostrar la parte b), obsérvese que
t^\epsilon \sum_{n \leq N} a_n e^{-nt} = t^\epsilon \sum_{n=1}^{N-1} A(n)(e^{-nt} - e^{-(n+1)t}) + t^\epsilon A(N) e^{-Nt} = O \left( \sum_{n\leq N} (tn)^\epsilon e^{-nt}(1-e^{-t}) + (tN)^\epsilon e^{-Nt}\right).
Ahora, (tN)^\epsilon e^{-Nt} = O(1) y
\sum_{n\leq N} (tn)^\epsilon e^{-nt}(1-e^{-t}) = 2^\epsilon(1-e^{-t}) \sum_{n\leq N} (tn/2)^\epsilon e^{-nt/2} e^{-nt/2} = O\left(\frac{1-e^{-t}}{1-e^{-t/2}}\right) = O\left(\frac{1}{1+e^{t/2}}\right) = O(1),
y esto demuestra b).
Esto nos sirve para justificar el intercambio de suma e integral de la siguiente manera: observe que
\sum_{n=1}^N \frac{a_n}{n^s} = \frac{1}{\Gamma(s)}\int_0^\infty \sum_{n=1}^N a_n e^{-nt} t^{s-1} dt,
y por lo tanto
\frac{1}{\Gamma(s)}\int_0^\infty \lim_{N\rightarrow\infty}\sum_{n=1}^N a_n e^{-nt} t^{s-1} dt = \frac{1}{\Gamma(s)}\int_0^1 \lim_{N\rightarrow\infty}\sum_{n=1}^N a_n e^{-nt} t^{s-1} dt + \frac{1}{\Gamma(s)}\int_1^\infty \lim_{N\rightarrow\infty}\sum_{n=1}^N a_n e^{-nt} t^{s-1} dt.
En la primera integral, obsérvese que para \epsilon < s , \sum_{n \leq N} a_n e^{-nt} t^{s-1} = O(t^{s-\epsilon -1}) para todos N . Entonces por convergencia dominada en la primera integral, y convergencia uniforme de e^t \sum_{n=1}^N a_n e^{-nt} para t \geq 1 en el segundo, este límite es
\lim_{N\rightarrow\infty}\frac{1}{\Gamma(s)}\int_0^1 \sum_{n=1}^N a_n e^{-nt} t^{s-1} dt + \lim_{N\rightarrow\infty}\frac{1}{\Gamma(s)}\int_1^\infty \sum_{n=1}^N a_n e^{-nt} t^{s-1} dt = \lim_{N\rightarrow\infty} \sum_{n=1}^N a_n \frac{1}{\Gamma(s)}\int_0^\infty e^{-nt}t^{s-1} dt.
Esto es sólo \sum_{n=1}^\infty \frac{a_n}{n^s} .
Obsérvese entonces que no necesitamos suponer desde el principio que la suma infinita de Dirichlet tiende a algo como s \rightarrow 0 una vez que converge para cada s que está implícito en el comportamiento de la serie de potencias.