Es cierto (como señalan la respuesta de abajo y algunos de los comentaristas) que es fácil interpretar esta pregunta de una manera que la hace parecer trivial y sin interés. Sin embargo, estoy bastante seguro de que perseguir la similitud tipográfica entre $e^{x^2}$ et $\zeta^{m^2}$ da lugar a matemáticas interesantes, así que aquí va un intento más serio de propaganda de algunos de los trabajos de Ivan Cherednik.
Páginas 6,7,8 y 9 de Cherednik's papel "Las álgebras de Hecke doblemente afines y las transformadas de diferencia de Fourier" explican cómo ``interpolar'' entre fórmulas integrales que relacionan la gaussiana con la función gamma y (cierta generalización de) las sumas de Gauss.
Más explícitamente, muestra que la fórmula (para mucha gente, en realidad es sólo la definición de la función Gamma)
$$\int_{-\infty}^{\infty} e^{-x^2} x^{2k} dx=\Gamma \left( k+\frac{1}{2} \right)$$
(para $k \in \mathbb{C}$ con parte real $>-1/2$ ) y la suma de Gauss-Selberg
$$\sum_{j=0}^{N-2k} \zeta^{(k-j)^2/4} \frac{1-\zeta^{j+k}}{1-\zeta^k} \prod_{l=1}^j \frac{1-\zeta^{l+2k-1}}{1-\zeta^l}=\prod_{j=1}^k (1-\zeta^j)^{-1} \sum_{m=0}^{2N-1} \zeta^{m^2/4}$$
(donde $N$ es un número entero positivo, $\zeta=e^{2\pi i/N}$ es un prim. $N$ raíz de $1$ y $k$ es un número entero positivo como máximo $N/2$ ) pueden obtenerse ambos como casos límite de la misma $q$ -identidad de la serie. La generalización común de la gaussiana y la función $k \mapsto \zeta^{k^2}$ es la función $x \mapsto q^{x^2}$ y las medidas que ponderan la integral y la suma se sustituyen por la medida de Macdonald -esencialmente la misma que aparece en la conjetura del término constante para $A_1$ y que produce los polinomios de Macdonald y puso en marcha la DAHA . La transformada de Fourier se deforma junto con todo lo demás para producir la transformada "Cherednik-Fourier".
No sé hasta qué punto la historia de las raíces de la unidad se generaliza a los sistemas de raíces de rango superior.
Nota: En la suma de Gauss-Selberg, sustituyendo $k$ por la parte entera de $N/2$ y manipulando un poco (como en la buena exposición de David Speyer enlazada en la pregunta anterior) se obtiene la fórmula habitual para la suma de Gauss.