Como has mencionado en tu comentario la convergencia en probabilidad ya no es interesante. Así que, primero demostramos que la serie es efectivamente convergente en $\mathbf{R}$ a.s.
Denote $\tilde{Y}_k := \frac{Y_k}{\log n}$ . Para utilizar el teorema de las dos series de Kolmogorov necesitamos demostrar que las series de valores esperados y varianzas convergen en $\mathbf{R}$ .
Para la media tenemos $$ \sum_{k=1}^n \mathbb{E}\tilde{Y}_k = \frac 1 {\log n} \left(1 + \frac 1 2 + \dots + \frac 1 n\right) \le C_n, $$ con $C_n \to 1$ como $n \to \infty$ .
Para ver esta última desigualdad, observe que $1 + \frac 1 2 + \dots + \frac 1 n$ es una serie armónica, que se sabe que tiene una aproximación bastante buena de $\log [n] + \gamma$ donde $\gamma$ es la constante de Euler. Esta aproximación se hace arbitrariamente pequeña cuando $n$ se hace más grande. Por lo tanto, tenemos $$ \frac 1 {\log n} \left(1 + \frac 1 2 + \dots + \frac 1 n\right) \approx \frac{\log n + \gamma}{\log n} = 1 + \frac{\gamma}{\log n}, $$ así que tomando $C_n = c\left( 1 + \frac{\gamma}{\log n}\right)$ con alguna constante absoluta $c$ suficientemente grande garantiza la desigualdad para la suma del valor esperado. Por lo tanto, $\sum_{k=1}^{\infty} \mathbb{E}\tilde{Y}_k$ converge en $\mathbf{R}$ .
Del mismo modo, $$ \sum_{k=1}^n \mathbb{V}ar\tilde{Y}_k = \frac 1 {\log^2 n} \left(\underbrace{1 + \frac 1 2 + \dots + \frac 1 n}_{\log [n] + \gamma} - \underbrace{\left(1 + \frac 1 {2^2} + \dots + \frac 1 {n^2}\right)}_{\pi^2/6}\right) \to 0, \quad \text { as } n \to \infty. $$
Por lo tanto, el teorema implica que $\sum_{k=1}^{n} \frac 1 {\log n} Y_k$ converge a.s. cuando $n \to \infty$ . Por último, como sabemos que la convergencia implica casi con seguridad convergencia en probabilidad y hay convergencia en probabilidad a una constante $1$ entonces tenemos una convergencia casi segura a $1$ también.
1 votos
Muy bien, he conseguido demostrar la convergencia en probabilidad. Basta con utilizar la desigualdad de Chebyshev y observar que $\sum_{k=1}^{n}\frac{1}{k} \le \log(n+1)$ ¿Y la convergencia casi segura?