4 votos

Demuestra que $Y_n := (\prod_{i=1}^{n} X_i)^{1/n}$ converge con probabilidad 1

¡Estoy lidiando con un problema sobre estocástica y estadística y espero que alguno de ustedes pueda ayudarme!

En $[0,1]$ tenemos una secuencia de variables de probabilidad independientes e igualmente distribuidas $(X_n)_{n \in \mathbb{N}}$ . Tengo que mostrar:

a) $Y_n := (\prod_{i=1}^{n} X_i)^{1/n}$ converge con probabilidad $1$ .

b) calcular el límite exacto de $Y_n$

Ya he hecho algunos cálculos, pero realmente no estoy seguro, si todo está bien.


Algunas consideraciones previas: Para deshacerse del producto tomé el logaritmo: $\ln(Y_n) = \frac{1}{n} \sum_{i=1}^{n} \ln(X_i)$

Después de tomar el logaritmo la secuencia $\ln(X_i)$ sigue estando igualmente distribuido y es independiente.

a) Encontré un teorema en mis apuntes de clase, que dice, que $\frac{S_n}{n}$ (el $n$ -suma parcial de una secuencia) converge y tiene un límite finito con probabilidad $1$ si la secuencia es integrable.

Me parece, que este Teorema podría encajar, pero mi preocupación es, que el logaritmo de $X_i = 0$ (permitido desde $X_i$ es una secuencia en $[0,1]$ ) no es integrable.

b) Esta parte me "huele" a la ley de Kolmogorov, que establece que para una secuencia de variables de probabilidad indempendientes e idénticamente distribuidas con valor de expectativa finito se cumple: $$\lim_{n\rightarrow \infty} \frac{1}{n} \sum_{k=1}^{n}X_k = \mathbb{E}(X_1) \quad \text{a.s.}$$

Así que el límite sería $\lim_{n} \ln(Y_n) = \mathbb{E}(\ln(X_1))$ casi seguro.

Pero no veo, por qué el valor de la expectativa de $\ln(X_i)$ debe ser finito para $X_i = 0$ de nuevo.

Así que debido a esta preocupación en $X_i = 0$ No estoy seguro, si estoy en el camino correcto, o el problema debe ser resuelto de manera diferente.

¡Estaría muy agradecido si alguno de ustedes puede ayudarme!

Gracias por adelantado.

pcalc

1 votos

Tenga en cuenta que si uno de los $X_i$ es $0$ todo el producto es $0$ así $$Y_n=\left( \prod_{i=1}^n X_i 1_{X_i\in (0,1]}\right)^{1/n}$$ y el $X_i 1_{X_i\in (0,1]}$ siguen siendo i.i.d por lo que el SLLN sigue siendo aplicable (siempre que $\log X$ es integrable).

0 votos

Hola y gracias por su rápida respuesta. Entonces - si tomo este caso especial para $X_i=0$ en la preocupación - ¿mi manera es adecuada?

0 votos

@GabrielRomon Por lo que entiendo, el principal problema del OP es que no se asume que $\log(X 1_{\{X>0\}})$ es integrable.

4voto

user36150 Puntos 8

Si $\mathbb{E}(-\log(X_1))<\infty$ entonces su razonamiento funciona bien y encontramos que

$$Y_n \to \exp(\mathbb{E}\log(X_1)) \quad \text{almost surely}. \tag{1}$$

Consideremos ahora el caso $\mathbb{E}(-\log(X_1))=\infty$ . Definir una secuencia de variables aleatorias truncadas por

$$Z_n^{(k)} := \min\{k, -\log(X_n)\}= \begin{cases} - \log(X_n), & 0 \leq -\log(X_n) \leq k, \\ k, & \text{otherwise}. \end{cases}$$

La secuencia $(Z_n^{(k)})_{n \in \mathbb{N}}$ es independiente e idénticamente distribuido. Dado que $\mathbb{E}|Z_n^{(k)}| \leq k < \infty$ la ley fuerte de los grandes números da

$$\lim_{n \to \infty} \frac{1}{n} \sum_{j=1}^n Z_j^{(k)} \xrightarrow[]{n \to \infty} \mathbb{E}(Z_1^{(k)}) \tag{1}$$

casi seguro. Ya que $Z_j^{(k)} \leq - \log(X_j)$ para cada $j \in \mathbb{N}$ esto implica

$$\liminf_{n \to \infty}\frac{1}{n} \sum_{j=1}^n -\log(X_j) \geq \mathbb{E}(Z_1^{(k)})$$

para todos $k \in \mathbb{N}$ . Como el teorema de convergencia monótona da $\sup_k \mathbb{E}(Z_1^{(k)}) = \mathbb{E}(-\log(X_1))=\infty$ obtenemos

$$\liminf_{n \to \infty} \frac{1}{n} \sum_{j=1}^n -\log(X_j) = \infty$$ es decir

$$\limsup_{n \to \infty} \frac{1}{n} \sum_{j=1}^n \log(X_j) = -\infty$$

casi seguro. Por lo tanto, por la continuidad de la función exponencial,

$$Y_n = \exp\left( \frac{1}{n} \sum_{j=1}^n \log(X_j) \right) \xrightarrow[]{n \to \infty} 0$$

casi seguro.


En resumen, obtenemos

$$Y_n \to \exp(\mathbb{E}\log(X_1)) \quad \text{a.s.}$$

con $\mathbb{E}\log(X_1)$ siendo posiblemente $-\infty$ .


Observación: En realidad, hemos demostrado la siguiente inversa de la ley fuerte de los grandes números:

Dejemos que $(U_j)_{j \in \mathbb{N}}$ sea una secuencia de variables aleatorias independientes idénticamente distribuidas y no negativas. Si $\mathbb{E}(U_1)=\infty$ entonces $$\liminf_{n \to \infty} \frac{1}{n} \sum_{j=1}^n U_j = \mathbb{E}(U_1)=\infty \quad \text{a.s.}.$$

0 votos

Hola Saz, veo que no es necesario dividir los casos como lo hice "eventos tales que de $X_n$ es cero " . Borraré mi respuesta ya que la tuya proporciona una buena respuesta ordenada. (+1)

0 votos

¡Hola! ¡Muchas gracias por su respuesta tan clara! Me ha ayudado mucho.

0 votos

@pcalc De nada.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X