Bueno por lo que recientemente he aprendido acerca de los tres tipos de convergencia en probabilidad. La convergencia en la distribución, la convergencia en probabilidad y casi seguro de convergencia.
Tengo las definiciones memorizado, pero estoy tratando de entender lo que significa, en esencia, ¿por qué necesitamos todos estos diferentes tipos de convergencia y un par de detalles técnicos. Aquí están mis preocupaciones.
1) En dos de estas convergencias necesitamos que un cierto límite está satisfecho. Tomemos, por ejemplo, la convergencia en probabilidad dice
$X_1,X_2,...\implies X$ de probabilidad si para todas las $\epsilon>0:\lim_{n \rightarrow \infty} P(|X_n-X|>\epsilon)=0$.
Ahora en mi mente intuitivamente esto es decir que a medida que vamos más y más a lo largo de la secuencia de variables aleatorias ($n \rightarrow \infty$) la probabilidad de que $X_n$ difiere de $X$ por cualquier cantidad positiva se convierte arbitrariamente pequeño.
Pero no entiendo lo que significa para $|X_n-X|$ a ser pequeña, ya que estas son variables aleatorias que son en sí las funciones. ¿Cómo podemos medir la distancia entre estas dos funciones? He visto algunas de las métricas de los espacios de funciones, pero no creo que es lo que se utiliza aquí.
Sería justo decir que el $|X_n(w)-X(w)|$ obtiene pequeño para cualquier $w$ en el espacio muestral? En cuyo caso, ¿por qué no podemos especificar la definición como
$X_1,X_2,...\implies X$ de probabilidad si para todas las $\epsilon>0$, y para todos los $w$ en el espacio de muestreo :$\lim_{n \rightarrow \infty} P(|X_n(w)-X(w)|>\epsilon)=0$?
2) Casi seguro de convergencia dice $X_1,... \rightarrow X$ si tenemos $P(\lim_{n \rightarrow \infty} X_n=X)=1$ nuevo, ¿qué significa esto? Es decir que $X_n(w)=X(w)$ en el límite de $n$ tiende a infinito para todos los $w$ en el espacio muestral.
3) ¿por Qué necesitamos tanto casi seguro y la convergencia en probabilidad? Sé que casi seguro que es más fuerte y por lo tanto supongo que me han contestado a mi propia pregunta, pero no veo por qué. Para mí, casi seguro que dice que $X_n$ se convierte en el mismo que $X$ como dejamos $n$ ser muy grande y la convergencia en probabilidad a mí me parece que decir $X_n$ no puede ser diferente de $X$ $n$ se convierte en gran esto se parece como dos formas de decir la misma cosa.
Creo que eso es todo lo que tengo por el momento espero haber expresado mi preocupación en una manera que hace que sea bastante fácil de ver lo que yo no entiendo.
Si alguien pudiera ayudar a aclarar que sería genial.
Gracias!
Por el camino me he encontrado estas definiciones en mis clases, pero nadie en nuestro año ha cubierto teoría de la medida, sin embargo, así que me pregunto si no soy realmente lo que significaba para entender estas definiciones todavía.