Hay un famoso problema que le pregunta:
Supongamos que un objeto se mantiene a 1 ua del Sol y se suelta desde el reposo. ¿Cuánto tiempo tarda en caer en el Sol (descuidar el tamaño del sol)?
El truco solución es imaginar el viaje hacia el sol, como el límite de una órbita elíptica, donde el semi-eje menor de la órbita va a cero. En ese límite, el sol se encuentra en uno de los focos de la elipse, pero también en el extremo de la elipse, y por lo tanto es una órbita con el semi-eje mayor de 1/2 au, por lo que el tiempo es $2^{-3/2}$ años.
Esto es correcto, pero ¿por qué?
Si dejamos caer el objeto directamente hacia el sol (y se imagina que puede pasar a través de el sol), entonces debe pasar a través de el sol en una línea recta, continuar hacia el otro lado, y eventualmente de viento de hasta 1 ua de distancia desde el sol en el lado opuesto.
En la delgada órbita elíptica, el comportamiento es totalmente diferente. El objeto sólo apenas logra pasar el sol a todos, antes de regresar en la dirección de la que vino.
Además, el tiempo para volver al punto de partida es diferente en los dos escenarios. Si dejamos caer el objeto en línea recta hacia el sol, cuando se pone el sol se ha completado 1/4 de un período, mientras que para la delgada órbita elíptica se ha cubierto la mitad de un período.
Así que sin hacer de una manera más directa el cálculo del tiempo para el objeto a caer en el sol, ¿por qué deberíamos creer que el "límite de una fina órbita truco" funciona?