Al menos para mí, la suposición de normalidad surge de dos (muy potente) razones:
El Teorema Del Límite Central.
La distribución de Gauss es una máxima entropía (con respecto a la continua versión de la entropía de Shannon) de distribución.
Creo que son conscientes de que el primer punto: si la muestra es la suma de muchas procceses, entonces, mientras una leve condiciones se cumplen, la distribución es bastante gaussiano (hay generalizaciones de la CLT donde, de hecho, no tiene que asumir que la r.v.s de la suma son idénticamente distribuidas, ver, por ejemplo, el de Lyapunov CLT).
El segundo punto es que para algunas personas (especialmente los físicos) tiene más sentido: dado el primer y segundo momentos de una distribución, la distribución de la que menos información se supone (es decir, el más conservador) con respecto a la constante de la entropía de Shannon medida (que es algo arbitrario en el caso continuo, pero, al menos para mí, totalmente objetiva, en el caso discreto, pero eso es otra historia), es la distribución gaussiana. Esta es una forma de lo que se denomina "principio de máxima entropía", que no es tan amplia debido a que el uso real de la forma de la entropía es algo arbitrario (ver este artículo de la Wikipedia para obtener más información acerca de esta medida).
Por supuesto, esta última afirmación es cierto también para el multi-variable de caso, es decir, el máximo de entropía de la distribución (de nuevo, con respecto a la continua versión de la entropía de Shannon) el primero ($\vec{\mu}$) y de segundo orden de la información (es decir, la matriz de covarianza $\mathbf{\Sigma}$), puede ser una muestra multivariante de gauss.
PD: debo añadir a la máxima entropía principio de que, según este documento, si por casualidad usted conoce el rango de variación de la variable, tienes que hacer los ajustes a la distribución que se obtiene por el principio de máxima entropía.