150 votos

¿La media aritmética y la media geométrica de los números primos convergen?

Yo estaba buscando en una lista de números primos. Me di cuenta de que $ \frac{AM (p_1, p_2, \ldots, p_n)}{p_n}$ parecía converger.

Esto me llevó a tratar de $ \frac{GM (p_1, p_2, \ldots, p_n)}{p_n}$, lo que también parecía converger.

Hice una rápida Excel gráfico y de regresión y encuentra el ex parecían converger a$\frac{1}{2}$, y el segundo a $\frac{1}{e}$. Como con cualquier cosa relacionada con los números primos, que no es fácil de razonamiento parecía apuntar a que los resultados (sin embargo, para todos los números naturales era trivial para demostrar que el ex tiende asintóticamente a $\frac{1}{2}$).

Son estas observaciones corregir y hay pruebas hacia:

$$ { \lim_{n\to\infty} \left( \frac{AM (p_1, p_2, \ldots, p_n)}{p_n} \right) = \frac{1}{2} \tag1 } $$

$$ { \lim_{n\to\infty} \left( \frac{GM (p_1, p_2, \ldots, p_n)}{p_n} \right) = \frac{1}{e} \tag2 } $$

También, ¿el límite de $$ { \lim_{n\to\infty} \left( \frac{HM (p_1, p_2, \ldots, p_n)}{p_n} \right) \tag3 } $$ existir?

105voto

Théophile Puntos 7913

Su conjetura para GM fue demostrado en el año 2011 en el corto papel En un límite que involucran el producto de números primos por József Sándor y Antoine Verroken.

Resumen. Deje $p_k$ el valor del $k$ésimo número primo. El objetivo de esta nota es para demostrar que el límite de la secuencia de $(p_n / \sqrt[n]{p_1 \cdots p_n})$$e$.

Los autores obtener el resultado basado en el teorema de los números primos, es decir, $$p_n \approx n \log n \quad \textrm{as} \ n \to \infty$$ así como una desigualdad de Chebyshev con la función de $$\theta(x) = \sum_{p \le x}\log p$$ donde $p$ son primos menos de $x$.

63voto

Shabaz Puntos 403

Podemos usar la versión simple de la función de conteo principal$$p_n \approx n \log n$$ and plug it into your expressions. For the arithmetic one, this becomes $$\lim_{n \to \infty} \frac {\sum_{i=1}^n p_i}{np_n}=\lim_{n \to \infty} \frac {\sum_{i=1}^n i\log(i)}{np_n}=\lim_{n \to \infty} \frac {\sum_{i=1}^n \log(i^i)}{np_n}\\=\lim_{n \to \infty} \frac {\log\prod_{i=1}^n i^i}{np_n}=\lim_{n \to \infty}\frac {\log(H(n))}{n^2\log(n)}$ $ Donde$H(n)$ es la función hiperfactorial . Podemos usar la expansión dada en la página de Mathworld para obtener$$\log H(n)\approx \log A -\frac {n^2}4+\left(\frac {n(n+1)}2+\frac 1{12}\right)\log (n)$ $ y el límite es debidamente$\frac 12$

No encontré una buena expresión para el producto de los números primos.

49voto

huda Puntos 309

Aquí hay una respuesta general a esta que va a resolver el caso de AM, GM y HM en una sola toma.

Observar que, desde $p_n \sim n\log n$ $n \to \infty$ la proporción de números formado por la secuencia de coeficientes de $\frac{p_1}{p_n},\frac{p_2}{p_n} \ldots, \frac{p_{n-1}}{p_n}$ que caen dentro de cualquier sub-intervalo dentro de $(0,1)$ es la proporción a la longitud de dicho intervalo es decir, la secuencia de $\frac{p_r}{p_n}$ enfoques equidistributed en $(0,1)$ [de la prueba de equi/distribución uniforme, ver el comentario abajo, por Mariuslp]. Por lo tanto, para un equidistributes secuencia, tenemos:

Deje $p_k$ $k$- th primer y deje $f$ ser una función continua de Riemann integrable en $(0,1)$ a continuación,

$$ \lim_{n \to \infty}\frac{1}{n}\sum_{r = 1}^{n}f\Big(\frac{p_r}{p_n}\Big) = \int_{0}^{1}f(x)dx. $$

Tomando $f(x) = x, \log(x)$$\frac{1}{x}$, respectivamente, con algunas manipulaciones, obtenemos el límite requerido para AM GM y HM como $\frac{1}{2},\frac{1}{e}$ $0$ respectivamente.

Ejemplo: Muestra el caso de GM, debido a la petición en los comentarios de abajo. Vamos $$ \lim_{n \to \infty}\frac{(p_1 p_2 \ldots p_n)^{1/n}}{p_n} = \lim_{n \to \infty}\Big(\frac{p_1}{p_n}\Big)^{1/n} \Big(\frac{p_2}{p_n}\Big)^{1/n} \ldots \Big(\frac{p_n}{p_n}\Big)^{1/n} = l $$

Claramente, $0 < l < 1$. Tomando logaritmo en ambos lados, tenemos $$ \log l = \lim_{n \to \infty} \frac{1}{n} \sum_{i = 1}^{n}\log \Big(\frac{p_r}{p_n}\Big) = \int_{0}^{1} \log x dx = -1. $$

Por lo tanto $l = 1/e$.

22voto

Jorrit Reedijk Puntos 129

No es una respuesta, sino una ilustración del tipo de convergencia de (2). Reproduje la fórmula de la media geométrica en la versión recíproca a la fórmula del OP para que coincida con la fórmula de la literatura citada. La curva muestra la desviación de$e$ y la lentitud de la convergencia.

imagen

La curva roja es la media móvil usando 7 puntos de datos.

15voto

rlpowell Puntos 126

Esta es una de menor tecnología alternativa a Ross de Millikan respuesta para la Media Aritmética del resultado (no utilizando el hiperactivo función factorial...), seguido por una prueba de la Media Geométrica (que se me ocurrió más tarde).

El uso de $p_n\approx n\log n$ grandes $n$, tenemos que demostrar

$${1\over n^2}\sum_{k=1}^n{k\log k\over\log n}\to{1\over2}$$

Pero para cualquier $0\lt r\lt1$ hemos

$$(1-r)\sum_{k=\lceil n^{1-r}\rceil}^nk\le\sum_{k=1}^n{k\log k\over\log n}\le\sum_{k=1}^nk={n(n+1)\over2}$$

(Nota, el límite inferior en la parte inferior de delimitación suma es $k=\lceil n^{1-r}\rceil$; por alguna razón que no se representa bien en la versión que se muestra en la pantalla de mi.) Ahora

$$\sum_{k=\lceil n^{1-r}\rceil}^nk={n(n+1)-(\lceil n^{1-r}\rceil-1)\lceil n^{1-r}\rceil\over2}\ge{n(n+1)-n^{1-r}(n^{1-r}+1)\over2}\ge{n^2\over2}\left(1-{1\over n^{2r}}-{1\over n^{1+r}} \right)\ge{n^2\over2}\left(1-{2\over n^{2r}} \right)$$

De ello se sigue que

$${1-r\over2}\left(1-{2\over n^{2r}}\right)\le{1\over n^2}\sum_{k=1}^n{k\log k\over\log n}\le{1\over2}\left(1+{1\over n}\right)$$

Por último, vamos a dejar que $r=1/\sqrt{\log n}$$n^{2r}=e^{2r\log n}=e^{2\sqrt{\log n}}\to\infty$$n\to\infty$. De ello se sigue que

$${1-r\over2}\left(1-{2\over n^{2r}}\right)={1-(1/\log n)\over2}\left(1-{2\over e^{2\sqrt{\log n}}}\right)\to{1\over2}$$

y el Teorema del sándwich hace el resto.

Añadido posterior: El sistema de baja tecnología también se encarga de la Media Geométrica. Desde $p_n/(n\log n)\to1$$n\to\infty$, es suficiente para mostrar

$${1\over n}\sum_{k=1}^n\log\left(n\log n\over p_k\right)\to1$$

Si escribimos $p_k=(1+\epsilon_k)k\log k$ ( $k\gt1$ ) y la nota que $\epsilon_k\to0$$k\to\infty$, y de nuevo dejó $r=1/\sqrt{\log n}$ ( $n\gt2$ ), tenemos

$${1\over n}\sum_{k=1}^n\log\left(n\log n\sobre p_k\right)={1\over n}\sum_{k=1}^{\lfloor n^{1-r}\rfloor}\log\left(n\log n\sobre p_k\right)+{1\over n}\sum_{k=\lceil n^{1-r}\rceil}^n\log\left(n\log n\(1+\epsilon_k)k\log k\right)\\ ={1\over n}\sum_{k=1}^{\lfloor n^{1-r}\rfloor}\log\left(n\log n\sobre p_k\right) -{1\over n}\sum_{k=\lceil n^{1-r}\rceil}^n\log(1+\epsilon_k) +{1\over n}\sum_{k=\lceil n^{1-r}\rceil}^n\log\left(\log n\\log k\right) -{1\over n}\sum_{k=\lceil n^{1-r}\rceil}^n\log\left(k\más n\right)$$

Ahora para un gran $n=e^{u^2}$ (de modo que $r=1/u$), tenemos

$$0\lt{1\over n}\sum_{k=1}^{\lfloor n^{1-r}\rfloor}\log\left(n\log n\over p_k\right)\lt{1\over n}\sum_{k=1}^{\lfloor n^{1-r}\rfloor}\log\left(n\log n\over 2\right)\lt{\log(n\log n/2)\over n^r}={u^2+2\log u-\log2\over e^u}\to0$$

y

$$0\lt{1\over n}\sum_{k=\lceil n^{1-r}\rceil}^n\log\left(\log n\over\log k\right)\lt{1\over n}\sum_{k=\lceil n^{1-r}\rceil}^n\log\left(\log n\over\log n^{1-r}\right)\lt\log(1-r)\to0$$

También tenemos

$$\left|{1\over n}\sum_{k=\lceil n^{1-r}\rceil}^n\log(1+\epsilon_k)\right|\le\max_{\lceil n^{1-r}\rceil\le k\le n}|\log(1+\epsilon_k)|\to0$$

ya que el rango en el que el max es tomado de las fuerzas de $\epsilon_k\to0$. Por último, tenemos

$$-{1\over n}\sum_{k=\lceil n^{1-r}\rceil}^n\log\left(k\más n\right) = {1\over n}\sum_{k=1}^{\lfloor n^{1-r}\rfloor}\log\left(k\más n\right) -{1\over n}\sum_{k=1}^n\log\left(k\más n\right)$$

donde

$$0\lt{1\over n}\sum_{k=1}^{\lfloor n^{1-r}\rfloor}\log\left(n\over k\right)\lt{\log n\over n^r}={u^2\over e^u}\to0$$

y

$$-{1\over n}\sum_{k=1}^n\log\left(k\over n\right)\to-\int_0^1\log x\,dx=1$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X