¿Podría alguien probar que$\mathbb{P}[\omega:\lim_{n\to\infty}X_n(\omega) = X(\omega)] = 1$ iff$\lim_{n\to\infty}\mathbb{P}[\omega:\sup_{k>n}|X_k(\omega) - X(\omega)|>\epsilon] = 0$? Aquí$\{X_n\}_{n=1,2,\cdots}$ es una secuencia de variables aleatorias. Esas dos son definiciones equivalentes de como convergencia de variables aleatorias.
Respuestas
¿Demasiados anuncios?Lo primero implica $$ \begin{eqnarray} 0 &=& P(\lim_{i\to\infty}X_i \neq X\, \text{or} \lim_{i\to\infty}X_i \, \text{does not exists}) \\ &=& P(\omega:\exists n\in\mathbf{N}, \forall m\in\mathbf{N}, \exists i>m \,\,\, \text{s.t.} \,\, |X_i(\omega) - X(\omega)| < 1/n)\\ &=& P(\bigcup_n \bigcap_m \bigcup_{i>m} \{\omega:|X_i(\omega) - X(\omega)| \ge 1/n\})\\ &\overset{\forall n}{\ge}& P(\bigcap_m \bigcup_{i>m} \{\omega:|X_i(\omega) - X(\omega)| \ge 1/n\})\\ &=&P(\limsup_{i\to\infty} \{\omega:|X_i(\omega) - X(\omega)| \ge 1/n\}) \\ &=&P(\lim_{i\to\infty} \sup_{j > i}\{\omega:|X_j(\omega) - X(\omega)| \ge 1/n\})\\ &=&\lim_{i\to\infty} P(\sup_{j > i}\{\omega:|X_j(\omega) - X(\omega)| \ge 1/n\}) \ge 0.\\ \end {eqnarray} $$ La última línea está justificada por la continuidad de las medidas desde arriba (ver aquí ). Ahora probemos lo contrario. Para algunos$n\in\mathbf{N}$, $$ \begin{eqnarray} 0&=&\lim_{i\to\infty} P(\sup_{j > i}\{\omega:|X_j(\omega) - X(\omega)| \ge 1/n\})\\ &=&P(\lim_{i\to\infty} \sup_{j > i}\{\omega:|X_j(\omega) - X(\omega)| \ge 1/n\})\\ &=&P(\limsup_{i\to\infty} \{\omega:|X_j(\omega) - X(\omega)| \ge 1/n\})\\ &=&P(\bigcap_i\bigcup_{j>i} \{\omega:|X_j(\omega) - X(\omega)| \ge 1/n\})\\ &=&P(\omega:\forall i, \exists j>i, \text{s.t.}\, |X_j(\omega) - X(\omega)| \ge 1/n) \end {eqnarray} $$ Esto implica, para cada$n$, $$ \begin{eqnarray} 1 &=& P(\omega: \exists i, \forall j>i, \text{s.t.}\, |X_j(\omega) - X(\omega)| < 1/n)\\ &=&P(\omega:\lim_{i\to\infty}|X_j(\omega) - X(\omega)| = 0)\\ &=&P(\omega:\lim_{i\to\infty}X_j(\omega) = X(\omega)) \end {eqnarray} $$ En realidad, creo que esta prueba puede necesita ser pulido Pero espero que no esté mal, al menos a la vista de un pájaro.
Bien, vamos a denotar por $Y_n$ la variable $\sup_{k>n} |X_k - X|$. Observar que
- $(Y_n)$ es una disminución de la secuencia de no negativo de las variables aleatorias
- $Y_n \to 0$ fib $X_n \to X$
- "$\mathsf{P}\{Y_n > \epsilon\} \to 0$ todos los $\epsilon$" significa que $Y_n \to 0$ en la probabilidad
Ahora todo lo que sigue a partir de la sencilla, pero útil, de hecho: si una $(Y_n)$ es una monótona secuencia, luego de su convergencia en probabilidad implica que casi seguro de convergencia (que lo contrario es cierto para cualquier secuencia es extremadamente estándar de hecho). Esto puede ser demostrado por diferentes medios, pero la más sencilla prueba, que yo sepa, es la siguiente:
Cualquier monótona secuencia converge (casi seguramente) a algo (esto es solo estándar de cálculo, y "casi seguramente" la realidad es irrelevante). De ahí también converge en probabilidad al mismo límite, por lo tanto, si $Y_n \to Y$ de probabilidad, a continuación, $Y$ debe coincidir con el casi seguro de límite.
Vea otra prueba en esta página