3 votos

La convergencia de variables aleatorias

¿Cuál es la diferencia entre la convergencia en distribución, la convergencia en probabilidad y casi seguro de convergencia?

Referencias

La convergencia de variables aleatorias

5voto

Shawn Miller Puntos 3875

La convergencia en los medios de distribución pointwise convergencia de la Cdf. No es una forma de convergencia de las variables aleatorias de por sí.

La convergencia en probabilidad se dice que por cada epsilon > 0, la probabilidad de la secuencia de variables aleatorias más el ser que el epsilon de la limitante de la variable aleatoria va a cero. La convergencia en probabilidad es también llamado convergencia en medida.

La convergencia en casi todas partes = casi seguro de convergencia = pointwise convergencia de las variables aleatorias, excepto posiblemente en un conjunto de medida cero.

Aquí es un diagrama que muestra que los modos de convergencia implica que los otros modos.

4voto

Huppie Puntos 4805

Para $X_1$, $X_2$, $\ldots$, yo.yo.d., con varianza finita $\sigma ^{2}$, el Teorema del Límite Central (convergencia en la distribución) dice que si esperamos el tiempo suficiente, es decir, tomar una muestra bastante grande, entonces $$ \frac{\sqrt n(\overline{X}_n-\mu)}{\sigma}$$ will have a probability distribution which is arbitrarily close to a norm(0,1) distribution. Notice the CLT doesn't say anything about the actual behavior of any particular $\overline{X}$ for large $n$, only that if we observed a whole bunch of them (all at that large $$ n) e hizo un histograma sería, entonces, aproximadamente en forma de campana.

La Débil Ley de los Grandes Números (convergencia en probabilidad) dice que si esperamos el tiempo suficiente (es decir, tomar una muestra bastante grande), entonces la probabilidad de que $$ \frac{\overline{X}_n-\mu}{\sigma}$$ es cercano a cero puede hacerse arbitrariamente alta. Tenga en cuenta un par de cosas:

  1. el $\sqrt{n}$ se ha ido, y
  2. de nuevo, nada se dijo acerca de cualquier particular, observó $\overline{X}$, sólo que sería una apuesta bastante segura que la anterior es cercano a cero.

El Fuerte de la Ley de los Grandes Números (convergencia casi segura) dice que $$ \frac{\overline{X}_n-\mu}{\sigma}$$ es seguro al 100% para ser arbitrariamente cercano a 0, siempre nos espera el tiempo suficiente (tomar una muestra bastante grande). Que es fuerte, de hecho. De nuevo, tenga en cuenta un par de cosas:

  1. el $\sqrt{n}$ todavía está desaparecido. De hecho, este es el mismo tipo que estaba en la WLLN, y
  2. esta vez, se dice algo acerca de la particular secuencia de $\overline{X}_n$'s que estamos viendo. Todavía es posible que sea lejos (más de $\epsilon$), pero todas las secuencias para que $\overline{X}_n$ nunca converge a $\mu$ tiene probabilidad cero.

Por supuesto, nunca nada es garantizado en probabilidad; podemos hacer nada mejor que 100% seguro. También, el SLLN no dice nada acerca de cuánto tiempo tendríamos que esperar a estar dentro de $\epsilon$, necesitaríamos la Ley del Logaritmo Iterado para algo como eso. Finalmente, esta discusión es acerca de la convergencia (en distribución/probabilidad/a.s.) a una constante, mientras que la definición general es la convergencia a otra variable aleatoria (o incluso la convergencia de dos secuencias). Pero podemos recuperar la intuición, si pensamos en las diferencias.

Yo no veo nada malo con las otras dos respuestas para esta pregunta, yo sólo pensé que ofrecen otra perspectiva.

1voto

prakash Puntos 18075

Tener en cuenta una serie de variables aleatorias $X_i$$X$. Deje $F(x)$ ser la función de distribución acumulativa de $X$ $F_{n}$ ser la función de distribución acumulativa de $X_i$. La convergencia en distribución se produce cuando $F(x)$ es el pointwise límite de $F_{n}$, es decir. $\lim_{n \to \infty} F_{n}(x)=F(x)$, siempre que F es continua en x.

La convergencia en probabilidad se define como sigue $\lim_{n \to \infty } Pr(|X_n-X| \ge e)=0$. Es más fuerte que la convergencia en distribución - no sé cómo probar esto, pero te puedo dar la siguiente explicación. Para la convergencia en distribución, sólo vimos las funciones acumulativas, por lo que no importa si fueron las variables dependientes o no. Para la convergencia en probabilidad, $X$ tiene que ser una constante o $X_n$ debe ser dependiente de X.

Casi seguro que la convergencia se define como sigue $Pr(\lim_{n \to \infty} X_n=X)=1$. En este MathOverflow hilo me preguntó si había una manera de reducir los límites de algún tipo de forma canónica. He obtenido los siguientes resultados donde $dif_x=|X_n-X|$:

  • La convergencia en probabilidad: $\forall e, d, n>N_1(e,d): dif_x \ge e \text{ with } p < d $
  • Casi seguro de convergencia: ($\forall e, n>N_2(e): dif_x < e) \text{ with } p=1$
  • Forma alternativa: ($\forall e, n>N_2(e): dif_x \ge e) \text{ with } p=0$

Notamos que para la convergencia en probabilidad, podemos reducir el $p$ por debajo de cualquier valor positivo por la elección de los valores de $n$ bastante alto, mientras que en la segunda fórmula, se puede reducir a 0. Además, la probabilidad en la primera fórmula se ve en el individuo probabilidades, mientras que el segundo analiza las probabilidades sobre todos los posibles valores de e y n. A partir de estas formas está claro que Casi Seguro de Convergencia implica la Convergencia en probabilidad. Si la convergencia en probabilidad no se está produciendo, entonces podemos encontrar algunos e, d, con la con $p \ge d \forall n$. Esto solo hará que el $p$ en casi seguro de convergencia para que no sea 0.

-1voto

Smellybear Puntos 1

Una secuencia X1,. 1,1,2,1,1,2 ... 1,1,2... Una secuencia de X2 es. 2,1,1,2,1,1,... 2,1,1.

Asumir una clásica configuración de la medida.

X1 y X2 convergen en la distribución. Dado que ambas variables aleatorias de salida el valor "1" con 2/3 de probabilidad, y "2" tiene probabilidad 1/3.

Pero X1 nunca convergen en probabilidad a X2 porque como el número de muestras aumenta dos tercios de las muestras de las variables aleatorias todavía ser diferentes unos de otros. Obviamente que no están recibiendo cerca el uno del otro, como deberían en la convergencia en probabilidad.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X