Creo que no es raro que los argumentos de la teoría elemental de números sean "filosóficamente" teóricos de la información. Pero no se trata de un hecho muy profundo: al fin y al cabo, todo se reduce al conocido principio heurístico de que los sucesos de que un "entero aleatorio" sea divisible por diferentes primos son sucesos aproximadamente independientes. Precisar esa noción heurística es lo que siempre requiere argumentos mucho más sutiles que implican análisis complejos, etc., en los que el pensamiento teórico de la información no desempeña ningún papel aparente. Así que estoy razonablemente seguro de que la respuesta a la pregunta del título sobre el teorema de los números primos es "no".
No obstante, se pueden hacer cosas muy bonitas con esta idea. He aquí un ejemplo que descubrí hace muchos años, relacionado con la estimación estándar $$ \textrm{(*)} \qquad \sum_{p \le n} \frac{\log p}{p} = \log(n) + O(1) \qquad (n\to \infty) $$ (suma sobre primos) - una serie que está muy relacionada con la suma de los recíprocos de los primos y con las estimaciones de $p_n$ que usted y otros discutían aquí. Voy a dar (*) la siguiente interpretación teórica de la información (que dará una prueba rigurosa de un límite en una dirección):
Tomemos una variable aleatoria $X$ que se elige uniformemente al azar entre los números $1,\ldots,n$ . Para cada primo $p\le n$ , dejemos que $V_p$ sea el $p$ -valoración de X (el exponente de $p$ dividiendo $X$ ). Una observación clave es que conocer todos los $V_p$ se puede recuperar $X$ . Esto significa que existe una desigualdad de entropías de Shannon: $$ \log_2(n) = H(X) \le H(\{V_p, p\le n\}) \le \sum_{p\le n} H(V_p), $$ por propiedades bien conocidas de la función entropía $H(\cdot)$ (subaditividad y monotonicidad con respecto a la $\sigma$ -precisamente análogas a las propiedades de la complejidad de Kolmogorov que Fortnow utiliza en sus notas).
Ahora, ¿cuál es la entropía $H(V_p)$ de la variable aleatoria $V_p$ ? Es la expresión $$ - \sum_{k\ge 0} \operatorname{Pr}(V_p=k) \log \operatorname{Pr}(V_p=k), $$ que puede limitarse desde arriba por la $k=1$ plazo $$ -\operatorname{Pr}(V_p=1) \log \operatorname{Pr}(V_p=1) = -\left( \frac{1}{n} \lfloor n/p \rfloor \right) \log \left( \frac{1}{n} \lfloor n/p \rfloor \right), $$ más todas las demás partes (que dejaré como ejercicio para mostrar es $O(1)$ ). Y esta última cantidad es aproximadamente igual a $\frac{\log p}{p}$ mientras $p$ es menor en orden de magnitud que $n$ . Así, tras algunas estimaciones más sencillas, se obtiene esencialmente el " $\ge$ "de (*), junto con la idea añadida de que el término de error en aproximaciones como (*) dice algo sobre hasta qué punto las propiedades de divisibilidad de un número típico por diferentes primos están correlacionadas entre sí.
Como decía al principio, esto es interesante a nivel filosófico, pero no sé si alguien ha encontrado la manera de hacer que este tipo de argumentos sean lo suficientemente precisos como para demostrar algo tan sólido como el teorema de los números primos, o incluso algo más sólido que las estimaciones más elementales que ya tienen pruebas muy cortas y directas.
8 votos
Este argumento también puede dar un límite de $i(\log i)(\log \log i)^2$ , si encuaderna $\log m$ utilizando la segunda ecuación de p 3 en lugar de la primera.
1 votos
$|x|$ = longitud de la cadena.
14 votos
Por cierto, el Teorema de los números primos es equivalente a una fórmula asintótica $p_i \sim i \log i$ . Esto es mucho más fuerte que decir $p_i = O(i \log i)$ .
3 votos
$\sim$ significa que la constante de proporcionalidad es 1, por lo que $f(x)\sim g(x)$ si $\lim_{x\infty} f(x)/g(x)=1.$
4 votos
He deshecho una edición del usuario que parece decidido a hacer cumplir sus normas y costumbres para la puntuación de los títulos, a muy muy muy poco beneficio
8 votos
Por cierto $O(i\log i)$ se debe a Chebyshev hacia 1850, mucho antes de que se demostrara la PNT en su forma habitual.