Estaba probando varias formas de calcular $\pi$ con mi computadora, y noté algo un poco extraño. Estaba utilizando $\frac{1}{1}-\frac{1}{3}+\frac{1}{5}-\frac{1}{7}+... = \frac{\pi}{4}$, y calculando esta suma con diferentes grados de precisión. Utilizando pi = 4*sum([((-1)**i)/(2*i+1) for i in range(n)])
, obtuve los siguientes resultados para diferentes valores de n
(he resaltado en negrita los dígitos que son incorrectos):
n
resultado
1,000
3.140592653839794
10,000
3.141492653590034
25,000
3.141552653589803
80,000
3.1415801535897496
100,000
3.1415826535897198
125,000
3.141584653589728
160,000
3.1415864035897374
200,000
3.1415876535897618
250,000
3.141588653589781
300,000
3.141589320256464
500,000
3.141590653589692
600,000
3.1415909869230147
1,000,000
3.1415916535897743
Parece que cuando n
tiene $2$ y $5$ como sus únicos factores primos, hay una extraña colección de dígitos correctos después del primer dígito incorrecto. Además, parece que la cantidad de dígitos incorrectos en la primera cadena de dígitos incorrectos aumenta de alguna manera con la diferencia entre la potencia de $2$ y la potencia de $5$. (Aunque no he probado suficientes valores de n
para deducir mucho más sobre esto)
No puedo decir si esto es un artefacto de la forma en que la computadora realiza el cálculo decimal, o si es el resultado de algún teorema sobre la convergencia de esta serie. ¿Alguien tiene alguna idea de por qué podría estar sucediendo esto?