5 votos

¿Tipos de convergencia en la confusión de probabilidad?

Bueno por lo que recientemente he aprendido acerca de los tres tipos de convergencia en probabilidad. La convergencia en la distribución, la convergencia en probabilidad y casi seguro de convergencia.

Tengo las definiciones memorizado, pero estoy tratando de entender lo que significa, en esencia, ¿por qué necesitamos todos estos diferentes tipos de convergencia y un par de detalles técnicos. Aquí están mis preocupaciones.

1) En dos de estas convergencias necesitamos que un cierto límite está satisfecho. Tomemos, por ejemplo, la convergencia en probabilidad dice

$X_1,X_2,...\implies X$ de probabilidad si para todas las $\epsilon>0:\lim_{n \rightarrow \infty} P(|X_n-X|>\epsilon)=0$.

Ahora en mi mente intuitivamente esto es decir que a medida que vamos más y más a lo largo de la secuencia de variables aleatorias ($n \rightarrow \infty$) la probabilidad de que $X_n$ difiere de $X$ por cualquier cantidad positiva se convierte arbitrariamente pequeño.

Pero no entiendo lo que significa para $|X_n-X|$ a ser pequeña, ya que estas son variables aleatorias que son en sí las funciones. ¿Cómo podemos medir la distancia entre estas dos funciones? He visto algunas de las métricas de los espacios de funciones, pero no creo que es lo que se utiliza aquí.

Sería justo decir que el $|X_n(w)-X(w)|$ obtiene pequeño para cualquier $w$ en el espacio muestral? En cuyo caso, ¿por qué no podemos especificar la definición como

$X_1,X_2,...\implies X$ de probabilidad si para todas las $\epsilon>0$, y para todos los $w$ en el espacio de muestreo :$\lim_{n \rightarrow \infty} P(|X_n(w)-X(w)|>\epsilon)=0$?

2) Casi seguro de convergencia dice $X_1,... \rightarrow X$ si tenemos $P(\lim_{n \rightarrow \infty} X_n=X)=1$ nuevo, ¿qué significa esto? Es decir que $X_n(w)=X(w)$ en el límite de $n$ tiende a infinito para todos los $w$ en el espacio muestral.

3) ¿por Qué necesitamos tanto casi seguro y la convergencia en probabilidad? Sé que casi seguro que es más fuerte y por lo tanto supongo que me han contestado a mi propia pregunta, pero no veo por qué. Para mí, casi seguro que dice que $X_n$ se convierte en el mismo que $X$ como dejamos $n$ ser muy grande y la convergencia en probabilidad a mí me parece que decir $X_n$ no puede ser diferente de $X$ $n$ se convierte en gran esto se parece como dos formas de decir la misma cosa.

Creo que eso es todo lo que tengo por el momento espero haber expresado mi preocupación en una manera que hace que sea bastante fácil de ver lo que yo no entiendo.

Si alguien pudiera ayudar a aclarar que sería genial.

Gracias!

Por el camino me he encontrado estas definiciones en mis clases, pero nadie en nuestro año ha cubierto teoría de la medida, sin embargo, así que me pregunto si no soy realmente lo que significaba para entender estas definiciones todavía.

3voto

pete Puntos 1

1)

Esto no significa que $|X-X_n|$ vuelve pequeña. Es el conjunto de $\{|X-X_n|>\epsilon\}:=\{\omega\in\Omega\mid |X(\omega)-X_n(\omega)|>\epsilon\}$ que se vuelve pequeña. Esto para cada $\epsilon>0$.

Estos conjuntos se miden por medio de la probabilidad de medir.

2)

Usted es casi correcto en su forma de pensar. Si $X_n(\omega)$ converge a $X(\omega)$ por cada $\omega\in\Omega$ hecho $X_n\to X$ casi seguramente. Sin embargo, para esto es sólo exigió que el conjunto de $\{\omega\mid X_n(\omega)\text{ converges to }X(\omega)\}$ tiene una medida de $1$. En palabras: debe ser el caso para "casi todos" $\omega\in\Omega$.

3)

Bueno y reconocible pregunta! Para conseguir en la diferencia que usted debe echar un vistazo a los ejemplos donde $X_n\to X$ en la probabilidad, pero no casi seguramente. WLOG usted puede centrarse en el caso especial donde los $X=0$.

Este ejemplo puede ayudar. Tome $\Omega=[0,1]$ equipada con medida de Lebesgue en los conjuntos de Borel. Para $n=1,2,\dots$ $k=1,\dots,n$ definir $Y_{n,k}$ como la función característica del conjunto de $[\frac{k-1}{n},\frac{k}{n}]$. Ahora veamos la secuencia de $Y_{1,1},Y_{2,1},Y_{2,2},Y_{3,1},Y_{3,2},Y_{3,3},Y_{4,1},\dots$. Observe que para cada $\omega\in[0,1]$ la secuencia ¿ no convergen. Sin embargo, tenemos $\lambda\{|Y_{n,k}|\geq\epsilon\}\leq\frac1{n}$ por cada $\epsilon>0$, por lo que no hay convergencia en probabilidad.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X