6 votos

Principio de contracción para variables aleatorias

Sea $\epsilon_1, \epsilon_2, \epsilon_3, ..., \epsilon_n, ...$ sea una secuencia de variables aleatorias independientes donde $P[\epsilon_i=-1]=P[\epsilon_i=1] = 1/2$ para todos $i$ es decir, la llamada secuencia de Rademacher.

Sea $u_1, u_2, u_3, ..., u_n, ...$ sea una secuencia de reales.

Definir una serie aleatoria $S=\sum_{i=1}^\infty \epsilon_i u_i$ .

Sea $\lambda_i\in [0,1]$ fijo, para todos $i$ .

Definir otra serie aleatoria $S_\lambda=\sum_{i=1}^\infty \lambda_i \epsilon_i u_i$ .

Principio de Contracción : Si $S$ converge casi con seguridad, entonces $S_\lambda$ también converge casi con seguridad.


Intenté demostrar que $\{\sum_{i=1}^N \lambda_i \epsilon_i u_i\}_N$ es una sucesión de Cauchy casi segura pero fallé en que $\epsilon_i u_i$ puede ser positivo para algunos $i$ y negativo para otros $i$ 's.

En concreto, para $N_2>N_1$ , $$\left|\sum_{i=1}^{N_1} \lambda_i \epsilon_i u_i - \sum_{i=1}^{N_2} \lambda_i \epsilon_i u_i\right|=\left|\sum_{i=N_1+1}^{N_2} \lambda_i \epsilon_i u_i\right|.$$ Queremos que la RHS de arriba vaya a cero como $N_1, N_2 \to \infty$ .

Lo que tenemos de la convergencia casi segura de $S$ es, $\left|\sum_{i=N_1+1}^{N_2} \epsilon_i u_i\right|$ llega a cero a medida que $N_1, N_2 \to \infty$ que no sé cómo utilizar para obtener la convergencia deseada anteriormente.

Gracias por cualquier ayuda.


Edita: El libro menciona que, si $S$ converge casi con seguridad, entonces $\mathbb P[|S|>x]$ llega a cero muy rápidamente a medida que $x\to\infty$ . Se puede utilizar este hecho para demostrar la Principio de Contracción . No vi cómo y por eso probé el argumento de la secuencia de Cauchy anterior. Por cierto, tampoco vi por qué la probabilidad $\mathbb P[|S|>x]$ disminuye rápidamente aunque sé que disminuirá a cero a medida que $x\to\infty$ .

2voto

Damian Pavlyshyn Puntos 390

Cuando se trata de la convergencia casi segura de secuencias de VR independientes, resultan muy útiles los teoremas de las dos y tres series de Kolmogorov.

En particular, puesto que $\sum_{i=1}^\infty \epsilon_i u_i$ converge casi con seguridad, tenemos por el teorema de las tres series que $\sum_{i=1}^\infty u_i^2 = \sum_{i=1}^\infty \mathrm{Var}(\epsilon_i u_i) < \infty$ .

Ahora, tenemos por el teorema de las dos series que, puesto que $\sum_{i=1}^\infty \mathbf{E}(\lambda_i \epsilon_i u_i) = 0$ y $\sum_{i=1}^\infty \mathrm{Var}(\lambda_i \epsilon_i u_i) = \sum_{i=1}^\infty \lambda_i^2 u_i^2 \leq \sum_{i=1}^\infty u_i^2 < \infty$ se deduce que $\sum_{i=1}^\infty \lambda_i \epsilon_i u_i$ converge casi con seguridad.


En cuanto a la probabilidad de cola, el $\epsilon_i$ son $1$ -sub-Gaussiana, de lo que se deduce que $S_\lambda$ es $\sum_{i=1}^\infty \lambda_i^2 u_i^2$ -sub-Gaussiano y así $$ \Pr(|S_\lambda| > t) \leq 2\exp\Bigl\{-\frac{t^2}{2\sum_{i=1}^\infty \lambda_i^2 u_i^2}\Bigr\}, $$ que de hecho se cae muy rápidamente cuando $\sum_{i=1}^\infty u_i^2$ es finito.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X