Si solo miras dentro de $[0,2\pi]$, entonces no es cierto que la distribución sea gaussiana.
EDIT
Establece $$ S(x;t) = \sum_{p\le x} p^{it}, $$ para que la suma que estás viendo sea la parte real de $S(x;t)$. Entonces el Teorema de los Números Primos implica que para $t\in[0,2\pi]$ tenemos que $$ S(x;t) = \frac{x^{1+it}}{(1+it)\log x} + O\left(\frac{x}{\log^2x}\right). $$ Por lo tanto $$ \mu:=\frac{1}{2\pi} \int_0^{2\pi} S(x;t)dt \ll \frac{x}{\log^2x}, $$ por integración por partes, y $$ \sigma^2:= \frac{1}{2\pi} \int_0^{2\pi}|S(x;t)|^2 dt \sim \frac{cx^2}{\log^2x}, $$ para algún $c>0. En consecuencia, $$ \begin{align} M_k&:=\frac{1}{2\pi} \int_0^{2\pi}\left| \frac{S(x;t)-\mu}{\sigma}\right|^{2k} dt \\ & = \frac{1}{2\pi} \int_0^{2\pi}\left| \frac{S(x;t)(1+O(1/\log x))}{\sigma}\right|^{2k} dt \\ &\sim \frac{1}{2\pi c^{k}}\int_0^{2\pi} \frac{dt}{(1+t^2)^k} \in[c_1^k,c_2^k] \end{align} $$ para todo $k\in\mathbb{N}$ fijo, donde $c_1$ y $c_2$ son ciertas constantes positivas. Si la distribución de $S(x;t)$ fuera gaussiana, entonces $M_k$ crecería como $c_0^k k!$ para algún $c_0>0, mucho más rápido que su crecimiento actual.
FIN DE EDICIÓN
Obtienes una distribución gaussiana, pero tienes que mirar los rangos apropiados de $t$ con respecto a $x$ (y tenemos que mirar intervalos largos de $t$, porque no entendemos bien lo que sucede dentro de intervalos muy cortos). Esto es parte del contexto del Teorema Central del Límite de Selberg para la función zeta de Riemann. En la prueba de su teorema, Selberg muestra que el comportamiento estadístico de $\log\zeta(1/2+it)$ para $t\in[T,2T]$ puede ser modelado por el comportamiento estadístico de $\sum_{p\le T^\epsilon} 1/p^{1/2+it}$ para algún $\epsilon=\epsilon(T)$ que tiende lentamente a 0. Luego procede a estimar momentos de la última suma (que es esencialmente equivalente a estudiar la distribución de la suma en la que estás interesado).
La idea principal es que $$ \begin{align} \int_T^{2T} S(x;t)^k \overline{S(x;t)}^{\ell} dt &= \sum_{p_1,\dots,p_{k+\ell}\le x} \int_T^{2T} \left(\frac{p_1\cdots p_k}{p_{k+1}\cdots p_{k+\ell}}\right)^{it} dt \\ &= T\sum_{\substack{ p_1,\dots,p_{k+\ell}\le x \\ p_1\cdots p_k=p_{k+1}\cdots p_{k+\ell}}} 1 + O\left( \sum_{\substack{ p_1,\dots,p_{k+\ell}\le x \\ p_1\cdots p_k\neq p_{k+1}\cdots p_{k+\ell}}} \frac{1}{|\log(p_1\cdots p_k/(p_{k+1}\cdots p_{k+\ell}))|}\right). \end{align} $$ El término principal anterior es 0 a menos que $k=\ell$, en cuyo caso equivale asintóticamente a $T$ veces el $2k$-ésimo momento de una gaussiana. Se puede mostrar que el término de error es pequeño si $x^{\max\{k,\ell\}}\le T^{1/4}$. De hecho, en este caso $p_1\cdots p_k,p_{k+1}\cdots p_{k+\ell}\le T^{1/4}$ y por lo tanto $|\log(p_1\cdots p_k/(p_{k+1}\cdots p_{k+\ell}))|\ge 1/T^{1/4}$. Así que el término total de error es $T^{1/4} \pi(x)^{k+\ell} \le T^{3/4}$, que es lo suficientemente pequeño para nuestros propósitos. Por lo tanto, si $x=T^{o(1)}$, entonces un número cada vez mayor (a medida que $T\to\infty$) de momentos se muestra que coinciden con los momentos de la gaussiana, y los resultados estándar de probabilidad implican entonces que la distribución de $S(x;t)$ para $t\in[T,2T]$ es gaussiana.
2 votos
Es bien sabido que la secuencia $\cos(t \log p)$ debería comportarse como variables aleatorias independientes. Ver p.3 de arxiv.org/pdf/1305.4618.pdf o la Sección 2.2 de arxiv.org/pdf/math/0506218v3.pdf. Esto se puede hacer riguroso mediante el teorema central del límite de Selberg, aunque para aplicaciones esto a menudo no es lo suficientemente preciso.
0 votos
Gracias por el comentario Peter, pero acabo de revisar esos documentos y no veo cómo se aplican directamente. No pude encontrar la serie real en el documento. ¿Es implícita?
1 votos
Está claro, Peter, en el segundo artículo que mencionaste. Gracias.
0 votos
@PeterHumphries: "bien conocido" es un poco exagerado, ya que el segundo documento que mencionas afirma explícitamente que ellos asumen que son iid's, por lo que esta no es una respuesta completa. Mi pregunta es cómo realmente demostrarlo. Sin embargo, tu comentario es útil, ya que no estaba al tanto del documento, sino solo de otros posteriores de algunos de los mismos autores.