En estadística, una mezcla de distribuciones es normalmente definidos como una densidad escrita como suma ponderada finita o contablemente finita de otras densidades $$f(x)=\sum_{i=1}^k \omega_i f_i(x)\qquad\sum_{i=1}^k \omega_i=1\quad 0<\omega_i$$ Esas densidades de componentes $f_i$ suelen ser de familias estándar, por ejemplo, gaussianas, pero en esencia pueden ser esencialmente cualquier densidad. Sin embargo, se prefieren las gaussianas, aunque sólo sea por un resultado de Chu (1973) que demuestra que cualquier densidad continua, uniforme y unimodal es una mezcla a escala de gaussianas. (Salvo que $h$ no es necesariamente una densidad). Véase, por ejemplo, West (1987) para más detalles.
Las referencias sobre estimación de mezclas son numerosas, entre las que puedo recomendar:
Mezclas de escamas son una denominación errónea, ya que caracterizan distribuciones con un factor de escala que se integra con respecto a una distribución dada, por ejemplo, una gaussiana. Es decir, la densidad es de la forma [en dimensión uno] $$f(x) = \int_0^\infty \tau^{-1}\varphi(x/\tau) h(\tau)\text{d}\tau$$ donde $\varphi$ y $h$ puede ser cualquier densidad [bajo restricciones de integrabilidad]. Excepto que los gaussianos son especiales en el sentido de que cualquier densidad simétrica (par), unimodal (en cero) y continua es una mezcla a escala de gaussianos como en el caso anterior [pero con algunos casos en los que $h$ no es una densidad]. Véase, por ejemplo Oeste (1987) para más detalles.