Dada una densidad $f(x)$ (por ejemplo, la distribución log-normal o log- $t_{\nu=3}$ distribución), me preguntaba qué algoritmo se conoce/utiliza habitualmente para encontrar una mezcla de distribuciones $g_r(x)$ de otra clase de distribuciones (por ejemplo, las distribuciones gamma) para que $f(x) \approx \sum_{r=1}^R w_r g_r(x)$ con pesos $0<w_r<1$ para $r=1,\ldots,R$ Satisfaciendo a $\sum_{r=1}^R w_r=1$ . Esto es útil, por ejemplo, para representar una prioridad para un análisis bayesiano en una forma analíticamente más manejable (conjugada). He mencionado el log- $t_{\nu=3}$ sólo para decir que lo ideal sería no tener que asumir la existencia de demasiados momentos (en el extremo querría aproximar la distribución log-Cauchy).
Idealmente, estoy buscando algo que sea fácil de implementar (o que ya esté implementado en, por ejemplo, R). Intenté minimizar la divergencia de Kullback-Leibler escribiendo yo mismo una función en R que hace la integración numérica necesaria y aplicando un enfoque de minimización genérico (usando nlm en R) a eso, pero minimizar esto ya sea a través de todos los parámetros y pesos a la vez (o iterando pesos y parámetros) parece no funcionar bien incluso después de que usé transformaciones que aseguran que las restricciones de los parámetros sean respetadas. Otra estrategia podría ser simular a partir de mi distribución objetivo y luego aplicar un algoritmo EM a los datos simulados, pero de alguna manera se siente como que debería ser capaz de hacer mejor que eso cuando sé las funciones de densidad analítica. Supongo que ya existen soluciones para este problema, pero que es sólo mi falta de conocimiento de las palabras de búsqueda adecuadas lo que me ha impedido encontrarlas.