Al discutir con mi hijo algunos de los muchos métodos para calcular los dígitos de π (nivel escolar de 15 años), me di cuenta de que los métodos que conozco más o menos (aproximación geométrica, Monte Carlo y series básicas) son todos convergentes pero ninguno de ellos establece explícitamente que el n -dígito calculado en algún momento es efectivamente un dígito verdadero (que no cambiará en cálculos posteriores).
Por ejemplo, el Serie Gregory-Leibniz nos da, para cada paso:
41=441−43=2.666666667...41−43+45=3.466666667...41−43+45−47=2.895238095...
La parte entera ha cambiado cuatro veces en cuatro pasos. ¿Por qué sabemos que 3 ¿es el primer dígito correcto?
De forma similar en Monte Carlo: cuanto mayor sea la muestra, mejor será el resultado, pero ¿sabemos matemáticamente que "ahora que hemos probado [that many times]
Estamos matemáticamente seguro de que π comienza con 3 ".
En otras palabras:
- hace cada una de las técnicas para calcular π (o al menos las más importantes) tienen una prueba de que una cifra determinada es ahora correcta?
- Si no es así, ¿cuáles son los ejemplos de los que sí tienen esta prueba y los que no?
Nota: Las grandes respuestas hasta ahora (¡gracias!) mencionan una prueba sobre una técnica específica, y/o una prueba de que un dígito específico es realmente el correcto. Me interesaba más entender si esto se aplica a todas las técnicas (principales) (= si todas certifican que este se garantiza que el dígito es correcto) .
O que tengamos algunos que sí (los de las dos primeras respuestas por ejemplo) y otros no (cuanto más lejos vayamos, más preciso será el número pero no sabemos si no saltará algo en algún paso y cambiará un dígito previamente estable. Al teclear esto y pensar sobre la marcha, me pregunto si esto no sería una técnica muy mala en sí misma, debido a esa falta de estabilidad)