11 votos

¿Es la convergencia en probabilidad equivalente a "casi seguramente... algo"?

La convergencia en probabilidad es más débil que la convergencia casi segura.

Me pregunto si la propiedad "$X_n$ converge a $0$ en probabilidad" se puede expresar como: "Para casi todo $\omega$, la secuencia $X_n(\omega)$ tiene cierta propiedad (por determinar)"

En otras palabras, ¿cuáles son las consecuencias de la convergencia en probabilidad que se pueden observar en cada realización individual de la secuencia? ¿Y constituyen una caracterización?

Más formalmente, ¿existe alguna propiedad $\phi$ cuyo argumento sea una secuencia de números reales (o si prefieres $\phi$ es una función de $\mathbb{R}^\mathbb{N}$ a $\{true,false\}$) tal que para todas las secuencias de variables aleatorias $(X_n)_{n\in\mathbb{N}}$:

"$(X_n)_{n\in\mathbb{N}}$ converge a $0$ en probabilidad" $\Longleftrightarrow$ "para casi todo $\omega$, $\phi((X_n(\omega))_{n\in\mathbb{N}})$ es cierto"

(y encontrar $\phi$)

Un candidato para $\phi$ en el que estoy pensando sería algo así:

$$\phi((x_n)_{n\in\mathbb{N}}): \forall\epsilon>0\quad\lim_{n\rightarrow+\infty}\frac{\#\{k\epsilon\}}{n}=0$$

2 votos

"tiene cierta propiedad" es un poco confuso, todo en el mundo tiene alguna propiedad. La convergencia en probabilidad es $\lim_{n\to\infty}\Pr\big(|X_n-X| > \varepsilon\big) = 0$, ¿podrías decirnos a qué te estás refiriendo exactamente en la definición?

0 votos

Intenté aclarar

0 votos

Me temo que tu notación no está clara. ¿Qué significa $P((X_n(\omega))_{n\in\mathbb{N}})$? ¿"Para cada valor hay una probabilidad de observarlo"? Claro que sí, está en [0, 1]....

10voto

Shift Puntos 310

La respuesta es no: no existe tal propiedad. Cualquier propiedad de la forma "a.s. algo" que implique convergencia en probabilidad también implica convergencia casi segura, por lo tanto no puede ser equivalente a la convergencia en probabilidad.

Prueba: Escribimos $X=(X_n)_{n\in\mathbb{N}}$. Supongamos que todas las variables $X_n$ son binarias (en $\{0;1\}$) para simplificar. Entonces la convergencia en probabilidad (implícitamente a 0 en todo lo que sigue) de $X$ es simplemente: $$\lim_{n\rightarrow+\infty} P(X_n=1)=0$$ Para cualquier propiedad $\psi$ de secuencias de 0s y 1s, "a.s. $\psi(X)$" significa "casi seguro para casi todo $\omega$, $\psi(X(\omega))$".

Para cada parte infinita $A$ de $\mathbb{N}$ definimos la propiedad (de secuencias de 0s y 1s):

$$\phi_A(x): \exists n\in A\quad x_n=0$$

Claramente, la convergencia en probabilidad de $X$ implica a.s. $\phi_A(X)$. Ahora supongamos que la convergencia en probabilidad de $X$ es implicada por a.s. $\phi(X)$ para alguna propiedad $\phi$.

Para cualquier $A$, a.s. $\phi(X)$ implica la convergencia en probabilidad de $X$ implica a.s. $\phi_A(X)$. Entonces es claro que para cualquier secuencia $x$ de 0s y 1s, $\phi(x)$ implica $\phi_A(x)$: simplemente usamos una secuencia aleatoria $X$ idénticamente igual a $x$. Así que $\phi(x)$ implica $\forall A\space \phi_A(x)$ donde $A$ varía sobre todas las partes infinitas de $\mathbb{N}$. $\forall A\space \phi_A(x)$ dice que no hay parte infinita de $\mathbb{N}$ donde $x$ sea constante en 1. En otras palabras, dice que $x$ tiene solo un número finito de 1s. Esto significa que $x$ tiende a 0. Así que a.s. $\phi(X)$ implica la convergencia a.s. de $X$.

Acerca de esta propiedad:

$$\phi((x_n)_{n\in\mathbb{N}}): \forall\epsilon>0\quad\lim_{n\rightarrow+\infty}\frac{\#\{k\epsilon\}}{n}=0$$

"Casi seguro $\phi$" no es equivalente a la convergencia en probabilidad.

Primero, no es implicado por la convergencia en probabilidad. Encontrar un contraejemplo no es tan fácil. La implicación se cumple para variables independientes. Un contraejemplo se puede construir creando grupos sucesivos independientes de variables 0/1. Todas las variables en el mismo grupo son iguales: su valor común se llama el valor del grupo. Y tenemos:

  • la longitud de cada grupo es lo suficientemente grande (digamos $2^k$) para que un grupo con valor 1 influya suficientemente en el promedio
  • casi seguramente infinitos grupos tienen valor 1 para que lo anterior suceda infinitas veces
  • la probabilidad de que un grupo tenga valor 1 tiende a 0 para que se cumpla la convergencia en probabilidad (a 0)

Los dos últimos puntos se pueden obtener diciendo que la probabilidad de que el $k^{th}$ grupo tenga valor 1 es $1/k$ y usando el segundo lema de Borrel-Cantelli.

"Casi seguro $\phi$" tampoco implica la convergencia en probabilidad. Pero no está lejos de eso. "Para todas las subsecuencias de $X$, casi seguro $\phi$ para esta subsecuencia" implica la convergencia en probabilidad y esto es bastante fácil de probar.

Ir más allá de esto parece plantear dificultades teóricas clave: cómo definir la frecuencia empírica asintótica de una manera más general que esta.

1 votos

Algo podría estar faltando de la expresión límite, porque "$Y_k=1$" significa que la variable aleatoria $Y_k$ es idénticamente la función constante $1$. Si eso es lo que pretendías escribir, entonces la implicación inversa obviamente es falsa.

0 votos

Quise decir "$Y_k(\omega)=1$". Lo volví a escribir de esta manera. ¿Ves alguna notación más corta?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X