En una de sus conferencias, Feynman sostiene que la física clásica es esencialmente indeterminada. Aquí he intentado destilar su original argumento que se refiere a las colisiones de (clásica) de los átomos en las gotas de agua de una cascada [1]:
De pequeñas partículas de tamaño característico $R$ cuyas posiciones y los impulsos son inicialmente medidos con la incertidumbre ("error") $\left[\Delta x\right]_0$ $\left[\Delta p\right]_0$ respectivamente, habrá una incertidumbre en la posición $\left[\Delta x\right]_t$ se producen algún tiempo $t$ más tarde. Deje $\tau$ algún tiempo para que $\left[\Delta x\right]_\tau >> R$, el siguiente debe contener:
$$\tau \propto -\log(\left[\Delta x\right]_0)$$
Me gustaría saber de una escuela primaria argumento de por qué esto es así, o si hay algún tipo de principal que conecta la medición inicial de error de forma logarítmica a $\tau$ (el tiempo después del cual el sistema es prácticamente indeterminado)?
[1] Feynman Lectures Volumen III, Capítulo 2-10:
"Dada una precisión arbitraria, no importa el grado de precisión, uno puede encontrar un tiempo lo suficientemente largo que no podemos hacer predicciones válidas para el tiempo...El tiempo pasa, de hecho, sólo logarítmicamente con el error, y resulta que sólo en una muy, muy pequeña de tiempo perdemos toda nuestra información. Si la precisión es llevado a ser una parte en miles de millones y miles de millones y miles de millones - no importa cuántos miles de millones deseamos, siempre paramos en algún lugar, entonces podemos encontrar un tiempo menor que el tiempo que se tomó para el estado de la exactitud - después de que ya no podemos predecir lo que va a suceder!"