1 votos

Sobre la convergencia de momentos bajo convergencia débil

Se sabe que la colección de mezclas finitas de Distribuciones Gaussianas sobre $\mathbb{R}$ es denso en $\mathcal{P}(\mathbb{R})$ (el espacio de las distribuciones de probabilidad) bajo la convergencia en la métrica de la distribución.

Me interesa saber lo siguiente:

Dejemos que $P_X$ sea una variable aleatoria con $p$ momento, es decir $\mathbb{E}_{P_X}[|X|^p]<\infty$ y $P_{X_n}\stackrel{d}{\to} P_X$ donde $P_{X_n}$ son mezclas de distribuciones gaussianas. Entonces, supongamos que $X_n \sim P_{X_n}$ y $X\sim P_X$ ¿se deduce que $$\mathbb{E}[|X_n|^p] \to \mathbb{E}[|X|^p]$$ ? $\quad (*)$

Mi intento:

He podido demostrar que $$\liminf_{n \to \infty} \mathbb{E}[|X_n|^p] \geq \mathbb{E}[|X|^p]$$ De hecho, esto ni siquiera utilizó la parte de las mezclas. Sin embargo, tengo dificultades para mostrar el límite superior. Aquí hay algunos pasos: \begin{eqnarray} \mathbb{E}[|X_n|^p] &=& \mathbb{E}[|X_n|^p1_{\{|X_n|\leq A\}}] + \mathbb{E}[|X_n|^p1_{\{|X_n|>A\}}] \\ &=& \mathbb{E}[|X_n|^p1_{\{|X_n|\leq A\}}] + A^pPr[|X_n|\geq A] + \mathbb{E}[(|X_n|^p-A^p)1_{\{|X_n|>A\}}] \end{eqnarray} Dejemos que $f(x)=x1_{0\leq x\le A} + A1_{x\geq A}$ que es una función continua y acotada. Entonces los dos primeros términos del lado derecho son iguales a $\mathbb{E}[f(|X_n|^p)]$ que por definición de convergencia débil, convergerá a $\mathbb{E}[f(|X|^p)]$ como $n \to \infty$ . Ahora podemos utilizar el MCT como $A\to \infty$ para conseguir $\mathbb{E}[|X|^p]$ . Por lo tanto, en pocas palabras, tenemos que demostrar: \begin{equation} \limsup_{A\to\infty} \limsup_{n \to \infty} \mathbb{E}[(|X_n|^p-A^p)1_{\{|X_n|>A\}}] \leq 0 \end{equation} Sin embargo, no sé cómo proceder a partir de aquí.

Me gustaría señalar que no sé la respuesta a la pregunta que hice en $(*)$ pero mi opinión es que esto es cierto. La razón es que he leído un resultado similar en el libro de Soren Asmussen. El resultado afirma que para distribuciones sobre reales no negativos, tenemos distribuciones de tipo fase no sólo siendo débilmente densas sino también que los momentos convergen. Pero en la prueba proporcionada, dicen "Se puede demostrar fácilmente que los momentos convergen".

Actualización: Mis más sinceras disculpas porque he olvidado una condición muy esencial. No se trata de cualquier mezcla, sino de mezclas específicas. Es decir, estoy buscando distribuciones $P_X$ tal que $P_{X_n}$ tiene la forma $\sum_{k=1}^n \alpha_k \mathcal{N}(\mu_k;P_k)$ ( $\mathcal{N}(\mu_k;P_k)$ representa una distribución gaussiana con media $\mu_k$ y la varianza $P_k$ .) donde dado $P<\infty$ , $\sum_{k=1}^n \alpha_k =1$ , $\alpha_k >0$ y $\sum_{k=1}^n\alpha_k P_k = P$ .

Actualización 2: La referencia que he mencionado antes es Soren Asmussen "Applied probability and queues", 2ª edición, página 84.

Actualización 3: Parece que interpreté mal a Asmussen. Lo que quería decir es que para cualquier distribución $P_X$ con un número finito de $p$ momento, existe una secuencia de distribuciones de tipo de fase $P_X^k$ tal que $P_X^k\stackrel{d}{\to}P$ y $E_{P_X^K}[|X|^p] \to E_{P_X}[|X|^p]$ . Esto no significa que cualquier mezcla de convergencia débil tenga un momento de convergencia como señala la respuesta.

1voto

kimchi lover Puntos 361

Falso, en general, como dijo @PhoemueX.

He aquí un contraejemplo. Sea $X\sim N(0,1)$ sea gaussiano. Para construir la distribución de $X_n$ en su forma peculiar muy esencial, que $a_1=a_2=\dots = a_n=1/n,$ dejar $\mu_k = 0$ para todos $k<n$ y que $\mu_n=n^{1/p},$ y que $P_k = (n/(n-1))(1-1/(nn!))$ para $k<n$ y $P_n=1/n!$ . Entonces dejemos que $X_n$ tienen distribución $\sum_{k=1}^na_kN(\mu_k,P_k)$ . Entonces $X_n$ converge en su distribución a $N(0,1)$ pero $|EX_n|^p$ converge, pero no a $E|X|^p$ sino a $1+E|X|^p$ .

La intuición es que $X_n$ es la mayoría de las veces muy $N(0,1)$ pero muy ocasionalmente algo más, que desvía la expectativa de lo que el OP espera. Las restricciones de forma de las densidades permitidas (mezclas de masas puntuales, mezclas de gaussianos con restricciones de varianza global, etc.) en las que está interesado el PO no sirven para hacer cumplir las restricciones de integrabilidad uniforme que se necesitan para vencer el problema planteado por @PhoemueX.

1voto

JGWang Puntos 46

Obsérvese el siguiente resultado (un resultado similar se menciona también en el libro de Asmussen Teorema 4.2): Supongamos que $F_k\stackrel{w}{\to}F$ y $\sup_k\mathsf{E}_{F_k}[|X|^q]<\infty$ , entonces $$\lim_k\mathsf{E}_{F_k}[|X|^p]=\mathsf{E}_F[|X|^p]\qquad\text{for all }p<q.$$ Estos resultados pueden demostrarse mediante la siguiente estimación: $$ \sup_k\mathsf{E}_{F_k}[|X|^p1_{|X|>A}]\le \frac1{A^{q-p}}\sup_k\mathsf{E}_{F_k}[|X|^q]\to 0 \qquad \text{as }A\to\infty.$$ Utilizando los resultados anteriores para la secuencia de distribuciones gaussianas mixtas $$ F_n=\sum_{k=1}^n\alpha_k^{(n)}\mathcal{N}(\mu_k^{(n)},P_k^{(n)}), \quad \alpha_k^{(n)}\ge 0, \sum_{i=1}^n\alpha_k^{(n)}=1. $$ tenemos la siguiente consecuencia: Supongamos que $F_k\stackrel{w}{\to}F$ y $$ \sup_n\biggl(\sum_{k=1}^n\alpha^{(n)}_k[(\mu^{(n)}_k)^2+P^{(n)}_k]^{q/2}\biggl)<\infty. $$ entonces
$$\lim_k\mathsf{E}_{F_k}[|X|^p]=\mathsf{E}_F[|X|^p]\qquad \text{for all }p<q.$$ En particular, si $$ \sup_{k,n}[|\mu_k^{(n)}|+P_k^{(n)}]<\infty, $$ entonces $$\lim_k\mathsf{E}_{F_k}[|X|^p]=\mathsf{E}_F[|X|^p]\qquad \text{for all }p>0.$$ Por último, gracias al ejemplo de Phoemue y Kumchi, se explica que para garantizar la convergencia de los momentos algunas condiciones adicionales son inevitables.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X