Al discutir con mi hijo algunos de los muchos métodos para calcular los dígitos de $\pi$ (nivel escolar de 15 años), me di cuenta de que los métodos que conozco más o menos (aproximación geométrica, Monte Carlo y series básicas) son todos convergentes pero ninguno de ellos establece explícitamente que el $n$ -dígito calculado en algún momento es efectivamente un dígito verdadero (que no cambiará en cálculos posteriores).
Por ejemplo, el Serie Gregory-Leibniz nos da, para cada paso:
$$ \begin{align} \frac{4}{1} & = 4\\ \frac{4}{1}-\frac{4}{3} & = 2.666666667...\\ \frac{4}{1}-\frac{4}{3}+\frac{4}{5} & = 3.466666667...\\ \frac{4}{1}-\frac{4}{3}+\frac{4}{5}-\frac{4}{7} & = 2.895238095... \end{align} $$
La parte entera ha cambiado cuatro veces en cuatro pasos. ¿Por qué sabemos que $3$ ¿es el primer dígito correcto?
De forma similar en Monte Carlo: cuanto mayor sea la muestra, mejor será el resultado, pero ¿sabemos matemáticamente que "ahora que hemos probado [that many times]
Estamos matemáticamente seguro de que $\pi$ comienza con $3$ ".
En otras palabras:
- hace cada una de las técnicas para calcular $\pi$ (o al menos las más importantes) tienen una prueba de que una cifra determinada es ahora correcta?
- Si no es así, ¿cuáles son los ejemplos de los que sí tienen esta prueba y los que no?
Nota: Las grandes respuestas hasta ahora (¡gracias!) mencionan una prueba sobre una técnica específica, y/o una prueba de que un dígito específico es realmente el correcto. Me interesaba más entender si esto se aplica a todas las técnicas (principales) (= si todas certifican que este se garantiza que el dígito es correcto) .
O que tengamos algunos que sí (los de las dos primeras respuestas por ejemplo) y otros no (cuanto más lejos vayamos, más preciso será el número pero no sabemos si no saltará algo en algún paso y cambiará un dígito previamente estable. Al teclear esto y pensar sobre la marcha, me pregunto si esto no sería una técnica muy mala en sí misma, debido a esa falta de estabilidad)