33 votos

La probabilidad de que dos números aleatorios sean coprimos es $\frac{6}{\pi^2}$

Esta es una pregunta realmente natural para la que conozco una solución impresionante. Así que admito que tengo una solución, sin embargo, me gustaría ver si alguien se le ocurre algo diferente. La pregunta es

¿Cuál es la probabilidad de que dos números elegidos al azar sean coprimos?

Más formalmente, calcula el límite como $n\to\infty$ de la probabilidad de que dos números elegidos al azar, ambos menores que $n$ son coprimos.

7 votos

Creo que esto le decepcionará, pero este problema no es un secreto: véase aquí , aquí y aquí . Y eso que sólo hice clic en los 3-4 primeros enlaces. ;) En realidad, para ser justos, hay que trabajar un poco para que los argumentos de la página de la wikipedia sean rigurosos, pero de todos modos esa no es la parte impresionante. Dicho esto, veamos cuántos diferentes existen pruebas.

0 votos

Ah.. ok :( pensé que era algo menos conocido. Bueno, parece que me equivoqué... ya no es impresionante ahora :).. por cierto gracias por las referencias

5 votos

@user15453 No quise decir que no sea un problema impresionante. Lo es en gran medida, y es bueno ver que lo encuentras tan fascinante. El punto que quería transmitir era simplemente: es más conocido de lo que pareces imaginar. (Eso será especialmente cierto en este sitio que (digamos) entre tus amigos, ya que mucha gente aquí hace muchas más matemáticas). Y no pretendía desanimarte a aprender cosas tan interesantes. Al contrario, espero que de aquí salgan muchas buenas respuestas (como, por ejemplo, la respuesta de Eric más abajo).

37voto

Eric Naslund Puntos 50150

Veamos la función $$S(x)=\sum_{\begin{array}{c} m,n\leq x\\ \gcd(m,n)=1\end{array}}1.$$

A continuación, observe que $$S(x)=\sum_{m,n\leq x}\sum_{d|\gcd(m,n)}\mu(d)=\sum_{d\leq x}\sum_{r,s\leq\frac{x}{d}}\mu(d)= \sum_{d\leq x}\mu(d)\left[\frac{x}{d}\right]^{2}$$

A partir de aquí es sencillo ver que en el límite, $$\frac{S(x)}{x^2}\rightarrow\sum_{n=1}^\infty \frac{\mu(n)}{n^2}=\frac{1}{\zeta(2)}=\frac{6}{\pi^2}.$$

Sin embargo, todavía hay algunas preguntas interesantes aquí. ¿A qué velocidad converge in, y cuáles son los términos secundarios? Resulta que podemos relacionar fácilmente esto con la función totiente sumatoria, que tiene una rica historia. Ver estos dos posts de intercambio de pilas de matemáticas: Función de toticidad , Fórmula asintótica . Lo que sigue a continuación es una modificación de mi respuesta en el segundo post.

La historia del término de error

En 1874, Mertens demostró que $$S(x)=\frac{6}{\pi^{2}}x^{2}+O\left(x\log x\right).$$ En todo momento utilizamos $E(x)=S(x)-\frac{6}{\pi^2}x^2$ para la función de error.

El mejor resultado incondicional lo da Walfisz 1963: $$E(x)\ll x\left(\log x\right)^{\frac{2}{3}}\left(\log\log x\right)^{\frac{4}{3}}.$$

En 1930, Chowla y Pillai demostraron que esto no puede mejorarse mucho más, y que $E(x)$ es no $$o\left(x\log\log\log x\right).$$

En particular, demostraron que $\sum_{n\leq x}E(n)\sim\frac{3}{\pi^{2}}x^{2}$ para que $E(n)\asymp n$ en promedio. En 1950, Erdos y Shapiro demostraron que existe $c$ tal que para infinitos enteros positivos $N,M$ tenemos $$E(N)>cN\log\log\log\log N\ \ \text{and}\ \ E(M)<-cM\log\log\log\log M, $$

o más concisamente

$$E(x)=\Omega_{\pm}\left(x\log\log\log\log x\right).$$

En 1987, Montgomery lo mejoró a

$$E(x)=\Omega_{\pm}\left(x\sqrt{\log\log x}\right).$$

Espero que lo hayan disfrutado,

Añadido: En algún momento, escribí un larga entrada en el blog sobre esto, con una prueba del límite inferior de Montgomery.

28voto

Guy Fabrice Puntos 21

Este es un enfoque bastante fácil

Empecemos con una observación básica:

$\bullet$ Todo número entero tiene la probabilidad "1" de ser divisible por 1.

$\bullet$ Un número entero dado es par o impar por lo tanto tiene probabilidad $"1/2"$ para que sea divisible por 2

$\bullet$ Del mismo modo, un número entero tiene una probabilidad $"1/3"$ para que sea divisible por 3. Porque cualquier interger es de la forma $3k, 3k+1$ o $3k+2$ .

Conjetura De forma más general, un número entero elegido entre $"p"$ otros enteros tiene una oportunidad de ser divisible por $p$

  1. De aquí se deduce que la probabilidad de que un número entero sea divisible por $p$ es $\frac{1}{p}$ . Esto es tener una oportunidad sobre $p-$ posibilidades de que sea divisible por $p$ .
  2. Por lo tanto, la probabilidad de que dos enteros diferentes sean simultáneamente divisibles por un primo $p$ es $\frac{1}{p^2}$
  3. Esto significa que la probabilidad de que dos enteros diferentes no sean simultáneamente divisibles por un primo $p$ es $$1-\frac{1}{p^2}$$

    1. Conclusión: La probabilidad de que dos enteros diferentes nunca sean simultáneamente divisibles por un primo ( lo que significa que son coprimas ) viene dada, por tanto, por
      $$ \color{blue}{\prod_{p, prime}\left(1-\frac{1}{p^2} \right) = \left(\prod _{p, prime}\frac {1}{1-p^{-2}}\right)^{-1}=\frac {1}{\zeta (2)}=\frac {6}{\pi ^{2}} \approx 0,607927102 61 \%}$$

¿Dónde debe recordarse de la El problema de Basilea tenemos la siguiente identidad de Euler

$$\frac{\pi^2}{6}=\sum_{n=1}^{\infty} \frac{1}{n^2} = \zeta(2)=\prod _{p, prime}\frac {1}{1-p^{-2}} $$

De forma similar, la probabilidad de que $m$ los enteros son coprimos viene dado por

$$ \color{red}{\prod_{p, prime}\left(1-\frac{1}{p^m} \right) = \left(\prod _{p, prime}\frac {1}{1-p^{-m}}\right)^{-1}=\frac {1}{\zeta (m)}}$$

Aquí $\zeta$ es el Función zeta de Riemann . $$\zeta(s) = \sum_{n=1}^{\infty} \frac{1}{n^s} $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X