Se sabe que la colección de mezclas finitas de Distribuciones Gaussianas sobre $\mathbb{R}$ es denso en $\mathcal{P}(\mathbb{R})$ (el espacio de las distribuciones de probabilidad) bajo la convergencia en la métrica de la distribución.
Me interesa saber lo siguiente:
Dejemos que $P_X$ sea una variable aleatoria con $p$ momento, es decir $\mathbb{E}_{P_X}[|X|^p]<\infty$ y $P_{X_n}\stackrel{d}{\to} P_X$ donde $P_{X_n}$ son mezclas de distribuciones gaussianas. Entonces, supongamos que $X_n \sim P_{X_n}$ y $X\sim P_X$ ¿se deduce que $$\mathbb{E}[|X_n|^p] \to \mathbb{E}[|X|^p]$$ ? $\quad (*)$
Mi intento:
He podido demostrar que $$\liminf_{n \to \infty} \mathbb{E}[|X_n|^p] \geq \mathbb{E}[|X|^p]$$ De hecho, esto ni siquiera utilizó la parte de las mezclas. Sin embargo, tengo dificultades para mostrar el límite superior. Aquí hay algunos pasos: \begin{eqnarray} \mathbb{E}[|X_n|^p] &=& \mathbb{E}[|X_n|^p1_{\{|X_n|\leq A\}}] + \mathbb{E}[|X_n|^p1_{\{|X_n|>A\}}] \\ &=& \mathbb{E}[|X_n|^p1_{\{|X_n|\leq A\}}] + A^pPr[|X_n|\geq A] + \mathbb{E}[(|X_n|^p-A^p)1_{\{|X_n|>A\}}] \end{eqnarray} Dejemos que $f(x)=x1_{0\leq x\le A} + A1_{x\geq A}$ que es una función continua y acotada. Entonces los dos primeros términos del lado derecho son iguales a $\mathbb{E}[f(|X_n|^p)]$ que por definición de convergencia débil, convergerá a $\mathbb{E}[f(|X|^p)]$ como $n \to \infty$ . Ahora podemos utilizar el MCT como $A\to \infty$ para conseguir $\mathbb{E}[|X|^p]$ . Por lo tanto, en pocas palabras, tenemos que demostrar: \begin{equation} \limsup_{A\to\infty} \limsup_{n \to \infty} \mathbb{E}[(|X_n|^p-A^p)1_{\{|X_n|>A\}}] \leq 0 \end{equation} Sin embargo, no sé cómo proceder a partir de aquí.
Me gustaría señalar que no sé la respuesta a la pregunta que hice en $(*)$ pero mi opinión es que esto es cierto. La razón es que he leído un resultado similar en el libro de Soren Asmussen. El resultado afirma que para distribuciones sobre reales no negativos, tenemos distribuciones de tipo fase no sólo siendo débilmente densas sino también que los momentos convergen. Pero en la prueba proporcionada, dicen "Se puede demostrar fácilmente que los momentos convergen".
Actualización: Mis más sinceras disculpas porque he olvidado una condición muy esencial. No se trata de cualquier mezcla, sino de mezclas específicas. Es decir, estoy buscando distribuciones $P_X$ tal que $P_{X_n}$ tiene la forma $\sum_{k=1}^n \alpha_k \mathcal{N}(\mu_k;P_k)$ ( $\mathcal{N}(\mu_k;P_k)$ representa una distribución gaussiana con media $\mu_k$ y la varianza $P_k$ .) donde dado $P<\infty$ , $\sum_{k=1}^n \alpha_k =1$ , $\alpha_k >0$ y $\sum_{k=1}^n\alpha_k P_k = P$ .
Actualización 2: La referencia que he mencionado antes es Soren Asmussen "Applied probability and queues", 2ª edición, página 84.
Actualización 3: Parece que interpreté mal a Asmussen. Lo que quería decir es que para cualquier distribución $P_X$ con un número finito de $p$ momento, existe una secuencia de distribuciones de tipo de fase $P_X^k$ tal que $P_X^k\stackrel{d}{\to}P$ y $E_{P_X^K}[|X|^p] \to E_{P_X}[|X|^p]$ . Esto no significa que cualquier mezcla de convergencia débil tenga un momento de convergencia como señala la respuesta.