5 votos

Un teorema del límite central para una serie trigonométrica que involucra números primos

En un trabajo reciente descubrí que necesitaba probar un teorema del límite central para la interesante serie:

$\sum_{n=1}^\infty \cos (u \log p_n) $

donde u es una variable aleatoria uniforme en el intervalo $[0,2\pi]$ y $p_n$ es el n-ésimo número primo. Si los números primos fueran verdaderamente aleatorios, esta serie sería básicamente como una caminata aleatoria y el TCL definitivamente se aplicaría. Los números primos parecen ser lo suficientemente aleatorios, pero no son completamente aleatorios. Comprobé numéricamente que la distribución de probabilidad para la serie anterior es realmente gaussiana (normal), por lo que creo que realmente tiene un TCL.

Sé que el TCL se sabe que se aplica a algunas series que no son variables aleatorias distribuidas de forma independiente y homogénea si las correlaciones entre ellas son muy débiles. El formalismo para esto implica la noción de $\alpha$-mezcla, de la cual no sé mucho. La serie anterior es similar a las series trigonométricas lacunarias, pero no cumple con la condición de lagunas de Hadamard, por lo que esos teoremas (Salem-Zygmund) no se aplican.

¿Alguien tiene alguna sugerencia sobre cómo abordar esto? ¿Hay una forma sencilla de ver si la serie pasaría el criterio de $\alpha$-mezcla? No estoy seguro de querer invertir todo el tiempo en aprender sobre el TCL para series con mezcla de $\alpha$, por lo que busco algo más simple.

(el trabajo reciente al que se hace referencia relaciona esta serie con la hipótesis de Riemann y está en math.NT si estás interesado en cómo se originó la serie.)

2 votos

Es bien sabido que la secuencia $\cos(t \log p)$ debería comportarse como variables aleatorias independientes. Ver p.3 de arxiv.org/pdf/1305.4618.pdf o la Sección 2.2 de arxiv.org/pdf/math/0506218v3.pdf. Esto se puede hacer riguroso mediante el teorema central del límite de Selberg, aunque para aplicaciones esto a menudo no es lo suficientemente preciso.

0 votos

Gracias por el comentario Peter, pero acabo de revisar esos documentos y no veo cómo se aplican directamente. No pude encontrar la serie real en el documento. ¿Es implícita?

1 votos

Está claro, Peter, en el segundo artículo que mencionaste. Gracias.

7voto

vilive Puntos 31

Si solo miras dentro de $[0,2\pi]$, entonces no es cierto que la distribución sea gaussiana.

EDIT

Establece $$ S(x;t) = \sum_{p\le x} p^{it}, $$ para que la suma que estás viendo sea la parte real de $S(x;t)$. Entonces el Teorema de los Números Primos implica que para $t\in[0,2\pi]$ tenemos que $$ S(x;t) = \frac{x^{1+it}}{(1+it)\log x} + O\left(\frac{x}{\log^2x}\right). $$ Por lo tanto $$ \mu:=\frac{1}{2\pi} \int_0^{2\pi} S(x;t)dt \ll \frac{x}{\log^2x}, $$ por integración por partes, y $$ \sigma^2:= \frac{1}{2\pi} \int_0^{2\pi}|S(x;t)|^2 dt \sim \frac{cx^2}{\log^2x}, $$ para algún $c>0. En consecuencia, $$ \begin{align} M_k&:=\frac{1}{2\pi} \int_0^{2\pi}\left| \frac{S(x;t)-\mu}{\sigma}\right|^{2k} dt \\ & = \frac{1}{2\pi} \int_0^{2\pi}\left| \frac{S(x;t)(1+O(1/\log x))}{\sigma}\right|^{2k} dt \\ &\sim \frac{1}{2\pi c^{k}}\int_0^{2\pi} \frac{dt}{(1+t^2)^k} \in[c_1^k,c_2^k] \end{align} $$ para todo $k\in\mathbb{N}$ fijo, donde $c_1$ y $c_2$ son ciertas constantes positivas. Si la distribución de $S(x;t)$ fuera gaussiana, entonces $M_k$ crecería como $c_0^k k!$ para algún $c_0>0, mucho más rápido que su crecimiento actual.

FIN DE EDICIÓN

Obtienes una distribución gaussiana, pero tienes que mirar los rangos apropiados de $t$ con respecto a $x$ (y tenemos que mirar intervalos largos de $t$, porque no entendemos bien lo que sucede dentro de intervalos muy cortos). Esto es parte del contexto del Teorema Central del Límite de Selberg para la función zeta de Riemann. En la prueba de su teorema, Selberg muestra que el comportamiento estadístico de $\log\zeta(1/2+it)$ para $t\in[T,2T]$ puede ser modelado por el comportamiento estadístico de $\sum_{p\le T^\epsilon} 1/p^{1/2+it}$ para algún $\epsilon=\epsilon(T)$ que tiende lentamente a 0. Luego procede a estimar momentos de la última suma (que es esencialmente equivalente a estudiar la distribución de la suma en la que estás interesado).

La idea principal es que $$ \begin{align} \int_T^{2T} S(x;t)^k \overline{S(x;t)}^{\ell} dt &= \sum_{p_1,\dots,p_{k+\ell}\le x} \int_T^{2T} \left(\frac{p_1\cdots p_k}{p_{k+1}\cdots p_{k+\ell}}\right)^{it} dt \\ &= T\sum_{\substack{ p_1,\dots,p_{k+\ell}\le x \\ p_1\cdots p_k=p_{k+1}\cdots p_{k+\ell}}} 1 + O\left( \sum_{\substack{ p_1,\dots,p_{k+\ell}\le x \\ p_1\cdots p_k\neq p_{k+1}\cdots p_{k+\ell}}} \frac{1}{|\log(p_1\cdots p_k/(p_{k+1}\cdots p_{k+\ell}))|}\right). \end{align} $$ El término principal anterior es 0 a menos que $k=\ell$, en cuyo caso equivale asintóticamente a $T$ veces el $2k$-ésimo momento de una gaussiana. Se puede mostrar que el término de error es pequeño si $x^{\max\{k,\ell\}}\le T^{1/4}$. De hecho, en este caso $p_1\cdots p_k,p_{k+1}\cdots p_{k+\ell}\le T^{1/4}$ y por lo tanto $|\log(p_1\cdots p_k/(p_{k+1}\cdots p_{k+\ell}))|\ge 1/T^{1/4}$. Así que el término total de error es $T^{1/4} \pi(x)^{k+\ell} \le T^{3/4}$, que es lo suficientemente pequeño para nuestros propósitos. Por lo tanto, si $x=T^{o(1)}$, entonces un número cada vez mayor (a medida que $T\to\infty$) de momentos se muestra que coinciden con los momentos de la gaussiana, y los resultados estándar de probabilidad implican entonces que la distribución de $S(x;t)$ para $t\in[T,2T]$ es gaussiana.

0 votos

Esto no es la respuesta por una razón simple: si utilizas el término principal en el teorema de los números primos como lo hiciste arriba, esto no captura las fluctuaciones en los números primos, es decir, su aleatoriedad. $Li(x)$ es suave. Otra forma de decir esto es que si reemplazamos $p_n$ por $n\log n$ en la serie, pierdes la gausiana por la misma razón.

1 votos

La oscilación de $p^{it}$ es muy leve cuando $t$ está acotado y no es suficiente para darte una cancelación de raíz cuadrada. El resultado asintótico $S(x;t)\sim x^{1+it}/\log x$ es una consecuencia directa del Teorema de los Números Primos y de la suma parcial. Cuando $t=0$, este es el Teorema de los Números Primos original. De hecho, puedes reemplazar $p_n$ por $n\log n$ cuando $t$ está acotado (con un cierto error, por supuesto). La distribución gaussiana no proviene de las fluctuaciones en la distribución de los números primos, sino de su independencia multiplicativa.

0 votos

Comentario interesante. Es cierto que numéricamente el gaussiano es mucho mejor para t más altos, donde la serie real en la que estamos interesados es $\sum_p\cos(u t \log p)$. ¿Puedes ser más específico, tal vez dar una referencia, o enviarme una explicación más larga en privado?

0voto

André LeClair Puntos 185

La respuesta anterior fue útil, gracias. Pero creo que puedo ver una versión más fuerte. Si consideras la serie

$\sum_n \cos ( u \lambda_n) $

donde $u$ es una variable aleatoria, entonces esta serie satisface el TCL si los $\lambda_n$ son linealmente independientes sobre los enteros. Ahora, $\lambda_n = \log p_n$ son linealmente independientes por el teorema de factorización única de primos.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X