Hay un par de razones por las que la gente computa $\pi$ y $e$ a tantos dígitos.
Una es simplemente que es una forma de probar el hardware. Los valores son conocidos (o pueden ser conocidos), y quieres ver si tu hardware es rápido y preciso con estos cálculos.
Otra es que en realidad hay muchas preguntas sobre las expansiones decimales de $\pi$ y $e$ (y otros números) para los que simplemente no sabemos la respuesta todavía. Por ejemplo: ¿es $\pi$ normal en base 10 ? Es decir, ¿se producirá una determinada secuencia de dígitos en su expansión decimal con la frecuencia que se espera? Más concretamente, dada una secuencia concreta de $n$ dígitos, se $$\frac{\text{number of times that the specific sequence occurs in the first $ m $ digits of $ \i $}}{m}$$ acercarse a $1/10^n$ como $m\to\infty$ (hay $10^n$ diferentes secuencias de $n$ dígitos, por lo que es lo que se esperaría si la secuencia fuera completamente aleatoria)? Aunque la respuesta no puede conocerse simplemente calculando los dígitos de $\pi$ , conocer más y más dígitos nos ayuda a ver si parece al menos plausible o no, al menos al principio. También podemos realizar otras pruebas de aleatoriedad para ver si los dígitos de $\pi$ (o $e$ ) parecen pasarla o no.
En cuanto a su pregunta sobre $e$ Sí, en principio podemos hacerlo. Pero el proceso se vuelve más y más complejo a medida que $n$ se hace más grande. Normalmente, un ordenador sólo sabe representar números que no son mayores que una determinada cantidad (dependiendo del número de bytes que utilice para representar números), por lo que hay que "explicar" al ordenador cómo manejar números grandes como $n!$ para grandes $n$ . El espacio de almacenamiento necesario para realizar los cálculos también se hace cada vez más grande. Y esa idea sólo funciona si se parte de un punto conocido. Así que mientras que teóricamente podríamos calcular $e$ a tantos dígitos como queramos, en la práctica si queremos que los cálculos terminen en algún momento antes de que el Sol se quede sin hidrógeno no podemos ir tan lejos. Hay otros algoritmos conocidos para calcular decimales de $\pi$ o $e$ que sean más rápidos, o que no requieran conocer los dígitos anteriores para averiguar el siguiente.
Y eso nos lleva a otra cosa que la gente que está computando tantos dígitos de $\pi$ y $e$ puede estar haciendo: probando algoritmos para cálculos de números grandes, para la precisión del punto flotante, o para la computación paralela (no somos muy buenos en la computación paralela, y tratar de averiguar cómo hacerlo de manera efectiva es un asunto muy importante; ideando formas de hacer cálculos como "compute $\pi$ a la $n$ La "millonésima cifra" es una forma de probar ideas para hacer computación paralela).
Eso nos lleva a un tercer interés en los cálculos: llegar a ideas matemáticas que puedan llegar rápidamente a los dígitos deseados de la expansión decimal; no porque estemos particularmente interesados en los dígitos de $\pi$ necesariamente, sino porque a menudo sont interesado en determinados dígitos de otros números. $\pi$ y $e$ son sólo puntos de referencia muy convenientes para probar cosas.
¿Por qué Euler calculó los números? Porque quería mostrar algunos de los usos de las series de Taylor; hasta ese momento, los métodos para aproximar el valor de $\pi$ eran mucho más onerosas. Ludolph van Ceulen utilizó famosamente los métodos de Arquímedes (inscribir y circunscribir polígonos en círculos) para encontrar el valor de $\pi$ a 16 decimales (y tras muchos más años de esfuerzo, a 25 lugares); esto fue a finales del siglo XVI, antes de que se supiera que $\pi$ era trascendental (o incluso antes de que la noción de ser trascendental fuera muy clara), por lo que tratar de computar $\pi$ precisamente tenía un punto. Estaba tan orgulloso del logro (dado todo el duro trabajo que había supuesto) que tenía el valor de $\pi$ que computó en su lápida. Euler demostró que las series de Taylor podían utilizarse para obtener los mismos resultados con mucho menos esfuerzo y con más precisión.