Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

1 votos

P({lim para una secuencia i.i.d. tal que P(\{ X_1=t\})<1 \forall t \in \mathbb{R}

Supongamos que \{ X_n\}_{n\geq 1} es una secuencia i.i.d tal que P(\{ X_1=t\})<1 para todos t \in \mathbb{R} . Quiero demostrar que P(\{ \lim_{n \to \infty} X_n \text{ exists}\})=0.

He intentado demostrarlo por contradicción. Supongamos que P(\{ \lim_{n \to \infty} X_n \text{ exists}\})>0 . Entonces existe un \omega para lo cual \lim_{n \to \infty} X_n(\omega) no existe. Por lo tanto, la secuencia X_n(\omega) oscila, por lo que existe t_1, t_2 \in \mathbb{R} tal que X_n(\omega)\in \{t_1, t_2\} infinitamente a menudo. Entonces

P(\{\omega: X_n(\omega) \in \{t_1, t_2\} \, \text{ i.o.} \}) =P(\{ \omega: \exists \text{ subsequences } X_{n_j}(\omega)=t_1 \text{ and } X_{n_i}(\omega)=t_2 \, \text{ i.o.}\}) =P(\{\omega: X_{n_j}(\omega)=t_1 \, \text{ i.o.} \}) P(\{\omega: X_{n_i}(\omega)=t_2 \, \text{ i.o.} \})<1, donde la última igualdad se deduce del hecho de que X_1, X_2, \ldots son independientes.

Estoy atascado aquí y no estoy seguro de si lo que he hecho es correcto. Cualquier ayuda es realmente apreciada. Thank you.

2voto

pista No se puede decir que hay t_1,t_2 tal que X_i \in \{t_1,t_2\} infinitamente a menudo. Ni siquiera sabes si hay átomos en la distribución... puede darse el caso de que la probabilidad X_i nunca toma ningún valor en particular es cero.

Pero si puedes demostrar que hay t_1<t_2 tal que casi con toda seguridad, X_i\ge t_2 infinitamente a menudo y X_i \le t_1 infinitamente a menudo, lo tendrás.

De hecho, basta con demostrar que P(X_i\ge t_2) y P(X_i \le t_1) son mayores que cero, pero por supuesto hay que demostrarlo (naturalmente, esto implica Borel-Cantelli).

2voto

induction601 Puntos 207

De la condición de P(X = t) < 1 para todos t \in \mathbb{R} tenemos P(X \ne t ) > 0 \qquad \forall t \in \mathbb{R} Así X no es determinista, (constante). Por lo tanto, existe t_0 \in \mathbb{R} y \epsilon > 0 tal que P(X > t_0 + \epsilon) > 0, \quad \text{and} \quad P(X < t_0 - \epsilon) > 0 Esto se debe a que si X fuera una constante, para cualquier t \in \mathbb{R} y para cualquier \epsilon > 0 P(X > t + \epsilon) = 0 \quad \text{or} \quad P(X < t -\epsilon) = 0. Entonces A_{n} = \{ X_n > t_0 + \epsilon \} y B_{n} = \{X_n < t_0- \epsilon \} . Desde X_i son iid, tenemos \sum_{n=1}^\infty P(A_{n}) = \infty = \sum_{n=1}^\infty P(B_{n}) lo que implica (a partir de Borel-Cantelli, regla cero-uno) que P(A_{n}, i.o.) = 1 = P(B_{n}, i.o.) Eso es, P(|X_n - t_0| > \epsilon, i.o) = 1 que nos dice que X_n no converge a.s.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X