Tengo un modelo de mezcla gaussiana, dado por: X∼M∑i=1αiNp(μi,Ci) tal que ∑Mi=1αi=1 . ¿Hay alguna manera de calcular la matriz de covarianza global si x ? Me gustaría decir " X tiene una matriz de covarianza dada por C ".
Respuestas
¿Demasiados anuncios?Supongo que estás hablando acerca de la combinación lineal de independiente aleatoria Gaussiana vectores.
Deje Xi ser un azar vector Gaussiano con media de μi y matriz de covarianza Ci: E(Xi)=μi,E((Xi−μi)⊗(Xi−μi))=Ci Deje Z=∑ni=1αiXi donde αi∈R. Claramente Z es un aleatoria Gaussiana vector como una combinación lineal de aleatoria Gaussiana vectores. Así, es determinada por su media de vector y matriz de covarianza.
La media de vector es fácil de encontrar, usando la linealidad de la espera: E(Z)=E(n∑i=1αiXi)=n∑i=1αiE(Xi)=n∑i=1αiμi La matriz de covarianza, utilizando la linealidad y la independencia de XiXji≠j: Cov(Z,Z)=n∑i=1n∑j=1αiαjCov(Xi,Xj)indep.=n∑i=1α2iCov(Xi,Xi)=n∑i=1α2iCi
\newcommand{\var}{\operatorname{var}} Puedes escribir x = y + \text{error} , donde y = \mu_i con probabilidad \alpha_i , para i=1,\ldots,M y el condicional distribución de probabilidad del "error" dado y es N(0,C_i) . Entonces tenemos E(x) = E(E(x\mid y)) = E\left.\begin{cases} \vdots \\ \mu_i & \text{with probability }\alpha_i \\ \vdots \end{cases}\right\} = \sum_{i=1}^M\alpha_i\mu_i, y \begin{align} \var(x) = {} & E(\var(x\mid y)) + \var(E(x \mid y)) \\[12pt] = {} & E\left.\begin{cases} \vdots \\ C_i & \text{with probability }\alpha_i \\ \vdots \end{cases}\right\} \\ & {} + \var\left.\begin{cases} \vdots \\ \mu_i & \text{with probability }\alpha_i \\ \vdots \end{cases} \right\} \\[12pt] = {} & \sum_{i=1}^M \alpha_i C_i + \sum_{i=1}^M \alpha_i(\mu_i-\bar\mu)(\mu_i-\bar\mu)^T, \end{align} donde \bar\mu=\sum_{i=1}^M \alpha_i\mu_i .
Un modelo de mezcla se refiere comúnmente a una suma ponderada de densidades, no a una suma ponderada de variables aleatorias como en la respuesta de Sasha Como ejemplo más sencillo, una variable aleatoria (escalar) variable aleatoria Z se dice que tiene una densidad de mezcla gaussiana si su función de densidad de probabilidad es f_Z(z)=\alpha f_X(z)+(1\alpha)f_Y(z), ~0<\alpha<1 donde X y Y son variables aleatorias gaussianas con diferentes densidades, es decir, (\mu_X,\sigma_X^2)\neq(\mu_Y,\sigma_Y^2) . Se deduce directamente que \begin{aligned} E[Z]&= \int_{-\infty}^\infty zf_Z(z)\,\mathrm dz& &= \alpha\mu_X + (1-\alpha)\mu_Y\\ E[Z^2]&= \int_{-\infty}^\infty z^2f_Z(z)\,\mathrm dz& &= \alpha(\sigma_X^2+\mu_X^2) + (1-\alpha)(\sigma_Y^2 + \mu_Y^2)\\ \text{var}(Z) &= E[Z^2] - (E[Z])^2& &= \alpha(\sigma_X^2+\mu_X^2) + (1-\alpha)(\sigma_Y^2 + \mu_Y^2) - [\alpha\mu_X + (1-\alpha)\mu_Y]^2 \end{aligned} que desgraciadamente no se simplifica en una fórmula bonita.
De forma más general, una densidad de mezcla tendría n, n > 1, términos con pesos positivos \alpha_1, \alpha_2, \ldots, \alpha_n sumando a 1 . Lo más sencillo es pensar en una partición del espacio muestral en eventos A_k, 1 \leq k \leq n con P(A_k) = \alpha_k . Entonces, Z es una variable aleatoria cuya distribución condicional dado A_k es una distribución gaussiana f_k(z) \sim N(\mu_k,\sigma_k^2) y, por lo tanto, el incondicional distribución es, a través de la ley de la probabilidad total, f(z) = \sum_{k=1}^n \alpha_k f_k(z). La expresión desgarbada \alpha(\sigma_X^2+\mu_X^2) + (1-\alpha)(\sigma_Y^2 + \mu_Y^2) - [\alpha\mu_X + (1-\alpha)\mu_Y]^2 derivado anteriormente para la varianza de Z puede así ser manipulado en \bigr[\alpha\sigma_X^2 + (1-\alpha)\sigma_Y^2\bigr] + \biggr(\bigr[\alpha\mu_X^2 + (1-\alpha)\mu_Y^2\bigr] - \bigr[\alpha\mu_X + (1-\alpha)\mu_Y\bigr]^2\biggr) que, aunque no es bonito, puede identificarse como una ilustración de la fórmula de la varianza condicional:
La varianza de Z es la media de la varianza condicional más la varianza de la media condicional.
Cuando Z es una variable aleatoria vectorial cuyas distribuciones condicionales son conjuntamente gaussianas con el vector de la media \mu y la matriz de covarianza C_i , se pueden hacer cálculos similares, y la matriz de covarianza incondicional de covarianza incondicional. Supongamos que la densidad condicional de Z dado A_k es una densidad conjuntamente gaussiana con vector de media \mu^{(k)} y matriz de covarianza C^{(k)} . Entonces, E[Z_i] = \sum_{k=1}^n \alpha_k \mu_i^{(k)} ~\text{and}~ E[Z_iZ_j] = \sum_{k=1}^n \alpha_k \bigr(C_{i,j}^{(k)} + \mu_i^{(k)}\mu_j^{(k)}\bigr) dando \begin{align}C_{i,j} = \text{cov}(Z_i,Z_j) &= \sum_{k=1}^n \alpha_k \bigr(C_{i,j}^{(k)} + \mu_i^{(k)}\mu_j^{(k)}\bigr) - \left(\sum_{k=1}^n \alpha_k \mu_i^{(k)}\right) \left(\sum_{k=1}^n \alpha_k \mu_j^{(k)}\right)\\ &= \left(\sum_{k=1}^n \alpha_k C_{i,j}^{(k)}\right) + \left(\sum_{k=1}^n \alpha_k \mu_i^{(k)}\mu_j^{(k)} - \left(\sum_{k=1}^n \alpha_k \mu_i^{(k)}\right) \left(\sum_{k=1}^n \alpha_k \mu_j^{(k)}\right)\right) \end{align} que es una ilustración de la fórmula de covarianza condicional:
La covarianza de dos variables aleatorias es la media de las covarianzas condicionales más la covarianza de las medias condicionales.
Motivado por la respuesta proporcionada por Michael Hardy, una solución formal a tal pregunta podría formularse como sigue:
Introduciendo una nueva variable oculta I para representar la identidad del modelo local, la probabilidad de las mezclas gaussianas puede descomponerse como p(x|I=i)=\mathcal{N}(\mu_i,C_i) p(I=i)=\alpha_i Por lo tanto, E(x)=E[E(x|I=i)]=\sum_{i=1}^{M} \alpha_i \mu_i \begin{align} Var(x)&=E[Var(x|I=i)]+Var[E(x|I=i)] \\ &=\sum_{i=1}^{M} \alpha_i C_i + \sum_{i=1}^{M} \alpha_i (\mu_i-\bar{\mu})(\mu_i-\bar{\mu})^T \end{align} donde \bar{\mu}=E(x) . Además, el Ley de la expectativa total y Ley de la varianza total se han utilizado en las dos ecuaciones anteriores.