6 votos

La convergencia en probabilidad, $X_i$ IID con finito segundo momento

Deje $\{X_i\}_{i\geq 1}$ ser IID con finito segundo momento, y $$ Y_n = \frac{2}{n(n+1)}\sum_{i=1}^n \,i\cdot X_i \, , \qquad n\geq 1 \, . $$ Podría usted por favor dígame cómo puedo demostrar que $Y_n$ converge en probabilidad a $\mathrm{E}[X_1]$?

Estoy pensando en la prueba de Kolmogorov para el criterio de Convergencia. Pero parece que no puede demostrar que el uso que. Alguna sugerencia?

4voto

Davide Giraudo Puntos 1192

De hecho, incluso podemos mostrar que $\mathbb E|Y_n-\mathbb E[X_1]|^2\to 0$. En efecto, desde el $\sum_{j=1}^nj=n(n+1)/2$ $\mathbb E[X_j]=\mathbb E[X_1]$ todos los $j$, $$Y_n-\mathbb E[X_1]=\frac 2{n(n+1)}\sum_{j=1}^nj(X_j-\mathbb E[X_j]),$$ por lo tanto $$\etiqueta{1}\mathbb E|Y_n-\mathbb E[X_1]|^2=\frac 4{n^2(n+1)^2}\sum_{i,j=1}^n ij\mathbb E\left[(X_i-\mathbb E[X_i])(X_j-\mathbb E[X_j])\right].$$ Si $i\neq j$, luego de la independencia $\mathbb E\left[(X_i-\mathbb E[X_i])(X_j-\mathbb E[X_j])\right]=0$ y conectarlo en (1), $$\etiqueta{2}\mathbb E|Y_n-\mathbb E[X_1]|^2=\frac 4{n^2(n+1)^2}\sum_{j=1}^n j^2\mathbb E\left[(X_j-\mathbb E[X_j])^2\right].$$ Usando ahora el hecho de que $X_j$ tiene la misma distribución que $X_1$ y delimitación $\sum_{j=1}^nj^2$$n^2(n+1)$, la igualdad (2) se convierte en $$\mathbb E|Y_n-\mathbb E[X_1]|^2\leqslant\frac 4{n+1}\mathbb E\left[(X_0-\mathbb E[X_0])\right]^2$$ y hemos terminado.

1voto

Josh Peterson Puntos 108

Mucho más tarde, he aquí una respuesta actualizada sin pistas. Sobre todo me quería ver si podía hacer sentido de los detalles. Esta prueba de casi seguro de convergencia (lo que implica la convergencia en probabilidad) se complementa con el adaptador de prueba de la convergencia en media de la plaza y la prueba directa, utilizando la desigualdad de Chebyshev.

Prueba de contorno

(1) Mostrar que $Y_n\overset{a.s}{\to}Y$ para algunos variable aleatoria Y.

(2) Muestran que el $\mathbb E Y = \mu := \mathbb E X_1$ $\mathrm{Var}(Y)=0$

(3) la Conclusión de que, dado que (2) implica que $Y = \mu$.s., nosotros por (1) se tiene el resultado deseado, a saber: $Y_n\overset{a.s}{\to} \mu$.

Prueba de 1)

Tenga en cuenta la suma de los valores absolutos, es decir.

$$\begin{align} S_n&:=\sum_{i=1}^n\frac{2i}{n(n+1)}|X_i| \\ & \leq \frac{1}{n}\sum_{i=1}^n|X_i| \overset{a.s,m.s}{\to} \mathbb E|X_i|\leq\sqrt{\mathbb E X_i^2}<\infty \end{align}$$, donde la convergencia y de las desigualdades en la última línea de la siguiente manera desde el fuerte de la ley de los grandes números y la asunción de finito segundo momento.

Esto muestra que en conjuntos con total probabilidad uno, $S_n$ es creciente y acotada de la secuencia y por lo tanto convergente. Pero $S_n$ es la suma de los valores absolutos de los términos de la suma $Y_n$, por lo que sabemos pues que también se $Y_n$ converge en estos conjuntos. En otras palabras, $Y_n$ es casi seguramente convergente con límite de $Y$, dicen.

Prueba de 2)

Utilizamos el siguiente resultado estándar (a veces llamado el ampliado o mejorado teorema de convergencia dominada):

Un teorema de convergencia dominada (DCT) Deje $\{Z_n\}$ ser una secuencia de variables aleatorias en cierta probabilidad de espacio$(\Omega,\mathcal{F},P).$ Si $Z_n \overset{a.s}{\to} Z$ y existen variables aleatorias $M_n \overset{a.s}{\to}M$ tal que $|Z_n|\leq M_n, \mathbb EM_n<\infty,\forall n$$\lim _n \mathbb E M_n = \mathbb E M <\infty$, $\lim _{n\to \infty} \mathbb E Z_n=\mathbb EZ.$

Para obtener la expectativa de $Y$, tomar la primera a $Z_n=Y_n$ $M_n=\frac{1}{n}\sum_{i=1}^n|X_i|$ en el DTO. Llegamos $\lim _{n\to \infty} \mathbb E Y_n=\lim _{n\to \infty} \mu=\mathbb EY.$

Para obtener la varianza, establezca $Z_n=(Y_n-\mu)^2$. Tenemos $Z_n \overset{a.s}{\to}Z:=(Y-\mu)^2$ también $$|Y_n-\mu|^2\leq (S_n+|\mu|)^2 \leq (\frac{1}{n}\sum_{i=1}^n|X_i|+|\mu|)^2=:M_n.$$

Mediante la ampliación de la plaza y el uso de la media de la plaza de la convergencia de $\frac{1}{n}\sum_{i=1}^n|X_i|$ es claro que esta $M_n$ satisface el requisito para la aplicación de la DCT. Por lo tanto, $$\mathrm{Var}(Y)=\mathbb E (Y-\mu)^2 = \lim_n \mathbb E (Y_n-\mu)^2=\lim_n \mathrm{Var}(Y_n)=0.$$ Esto termina la prueba.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X