4 votos

Demostración de la convergencia en probabilidad.

Sea $Y_k$ sean rvs distribuidos independientemente Bernoulli que mantienen $P(Y_k = 1) = \frac{1}{k}$ para cada $k = 1,2,...,n$ . Necesito demostrar que la suma $\frac{1}{\log n} \sum_{k=1}^n Y_k$ converge en probabilidad a $1$ . ¿Cómo puedo comprobar también si converge o no de forma casi segura?

Bueno, he intentado usar algunas desigualdades bien conocidas pero no funcionan. Tampoco sirve el teorema de Kolmogorov.

1 votos

Muy bien, he conseguido demostrar la convergencia en probabilidad. Basta con utilizar la desigualdad de Chebyshev y observar que $\sum_{k=1}^{n}\frac{1}{k} \le \log(n+1)$ ¿Y la convergencia casi segura?

1voto

zpea Puntos 121

Como has mencionado en tu comentario la convergencia en probabilidad ya no es interesante. Así que, primero demostramos que la serie es efectivamente convergente en $\mathbf{R}$ a.s.


Denote $\tilde{Y}_k := \frac{Y_k}{\log n}$ . Para utilizar el teorema de las dos series de Kolmogorov necesitamos demostrar que las series de valores esperados y varianzas convergen en $\mathbf{R}$ .

Para la media tenemos $$ \sum_{k=1}^n \mathbb{E}\tilde{Y}_k = \frac 1 {\log n} \left(1 + \frac 1 2 + \dots + \frac 1 n\right) \le C_n, $$ con $C_n \to 1$ como $n \to \infty$ .

Para ver esta última desigualdad, observe que $1 + \frac 1 2 + \dots + \frac 1 n$ es una serie armónica, que se sabe que tiene una aproximación bastante buena de $\log [n] + \gamma$ donde $\gamma$ es la constante de Euler. Esta aproximación se hace arbitrariamente pequeña cuando $n$ se hace más grande. Por lo tanto, tenemos $$ \frac 1 {\log n} \left(1 + \frac 1 2 + \dots + \frac 1 n\right) \approx \frac{\log n + \gamma}{\log n} = 1 + \frac{\gamma}{\log n}, $$ así que tomando $C_n = c\left( 1 + \frac{\gamma}{\log n}\right)$ con alguna constante absoluta $c$ suficientemente grande garantiza la desigualdad para la suma del valor esperado. Por lo tanto, $\sum_{k=1}^{\infty} \mathbb{E}\tilde{Y}_k$ converge en $\mathbf{R}$ .

Del mismo modo, $$ \sum_{k=1}^n \mathbb{V}ar\tilde{Y}_k = \frac 1 {\log^2 n} \left(\underbrace{1 + \frac 1 2 + \dots + \frac 1 n}_{\log [n] + \gamma} - \underbrace{\left(1 + \frac 1 {2^2} + \dots + \frac 1 {n^2}\right)}_{\pi^2/6}\right) \to 0, \quad \text { as } n \to \infty. $$

Por lo tanto, el teorema implica que $\sum_{k=1}^{n} \frac 1 {\log n} Y_k$ converge a.s. cuando $n \to \infty$ . Por último, como sabemos que la convergencia implica casi con seguridad convergencia en probabilidad y hay convergencia en probabilidad a una constante $1$ entonces tenemos una convergencia casi segura a $1$ también.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X