7 votos

Heurística para la conjetura de Montgomery

Esta es mi tercera pregunta en este sitio con respecto a la conjetura de Montgomery - y me disculpo si es demasiado -- pero sigo sin entender bien por qué se cree que esta conjetura es cierta.

La conjetura de la que hablo es la siguiente (doy la versión ligeramente corregida de Freidlander-Granville). et $q>1$ sea un número entero, $a$ un número entero coprimo a $q$ , $\psi(q,a,x) = \sum_{p^\alpha < x, p^\alpha \equiv a \pmod{q}} \Lambda(n)$ . Entonces:

Conjetura para $x>q$ , uno tiene $\psi(x,q) = \frac{x}{\phi(q)} + O(x^{1/2+\epsilon} q^{-1/2})$ con una constante implícita que sólo depende de $\epsilon$ .

En su respuesta a mi anterior pregunta Matt Young da la siguiente heurística: Para $\chi$ un carácter Dirichlet no principal de $(\mathbb Z/q\mathbb Z)^\ast$ se tiene bajo GRH $\psi(\chi,x) = O(x^{1/2+\epsilon})$ . Ahora $\psi(q,a,x)$ es la media aritmética de los (aproximadamente $q$ ) términos $\chi^{-1}(a) \psi(\chi,x)$ y si esos términos (ponderados) están en una posición aleatoria se debe esperar que su suma tenga una norma aproximadamente $q^{1/2}$ la norma del término individual (por el teorema del movimiento browniano de Einstein si se quiere), dando la conjetura.

Esta heurística me ayudó mucho entonces, pero ahora me gustaría ir más allá.

¿Existe una buena razón para creer que el $\chi^{-1}(a) \psi(\chi,x)$ se distribuyen de forma aleatoria, para cada $a$ relativamente primo a $q$ ? ¿Podría esta expectativa tener algún vínculo, a través de las fórmulas explícitas, con las conjeturas sobre la posición de los ceros en la línea crítica de las funciones L de Dirichlet (suponiendo GRH)?

10voto

Nick Pierpoint Puntos 7976

No es exactamente lo que has preguntado, pero creo que hay una heurística más sencilla para la conjetura de Montgomery que no implica caracteres.

Dejemos que $A$ sea la progresión aritmética $a\pmod q$ , donde $a$ y $q$ son coprimas entre sí. Consideramos una secuencia de variables aleatorias Bernoulli $(X_n)_{n\in A}$ tal que

$$\textbf{Prob}(X_n=1)=\frac{q}{\phi(q)\log n} \quad\text{and}\quad \textbf{Prob}(X_n=0)=1-\frac{q}{\phi(q)\log n}.$$

El evento $X_n=1$ modela el caso de que $n$ es primo. (Hay alrededor de $\le x/q$ elementos en $A$ hasta $x$ y sobre $x/(\phi(q)\log x)$ de ellos son primos). Sea $\Psi(x)=\sum_{n\le x} X_n\log n$ . Se trata de un modelo aleatorio para $\psi(x)$ (o más bien $\theta(x)=\sum_{p\le x}\log p$ pero esto es un mero tecnicismo). Tenga en cuenta que

$$ \mathbb{E}[\Psi(x)] = \frac{q}{\phi(q)}\sum_{n\le x,\,n\equiv a\pmod q}1 = \frac{q}{\phi(q)}(x/q+O(1))=\frac{x}{\phi(q)} + O(q/\phi(q)) $$ y $$ \text{Var}[\Psi(x)] = \frac{q}{\phi(q)} \sum_{n\le x,\, n\equiv a\pmod q}\log n \sim \frac{x\log x}{\phi(q)}. $$ El teorema del límite central implica que la variable aleatoria $(\Psi(x) - x/\phi(q))/\sqrt{x\log x/\phi(q)}$ tiende a la distribución normal estándar. En particular, es casi seguro que a medida que $x\to\infty$ tenemos que $$ \left|\Psi(x) - \frac{x}{\phi(q)} \right| \ll x^\epsilon \sqrt{\frac{x\log x}{\phi(q)}}. $$ (De hecho, hay que esperar que esto se convierta en algo preciso tan pronto como $x/q$ se vuelve un poco grande, es decir, hay suficientes sumandos en $\Psi(x)$ .) Así que deducimos la conjetura de Montgomery para $\Psi(x)$ el modelo aleatorio de $\psi(x)$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X