Elige una secuencia de $X_1$, $X_2$, $\dots$, de yo.yo.d. variables aleatorias tomar valores enteros positivos con $\mathbb{P}(X_i=n)=\frac{1}{n}-\frac{1}{n+1}=\frac{1}{n(n+1)}$ para cada entero positivo de $n$.
P: ¿la suma $\frac{1}{X_1}+\frac{1}{X_1+X_2}+\frac{1}{X_1+X_2+X_3}+\dots=\sum\limits_{k=1}^\infty\frac{1}{X_1+\dots+X_k}$ confluyen una.s.? En otras palabras, es finita una.s.?
Algunas observaciones:
1. Algunos slick los cálculos con la generación de la función de $X_i$ demostrar que el valor esperado de la suma es de $+\infty$, por lo que no nos da ninguna información.
2. Para cualquier fijo de $i$, eventualmente cada denominador $X_1+\dots+X_k$ se convierte en mucho más grande que $X_i$. Así que la convergencia de la suma es independiente de $X_i$ (más precisamente de $(X_1,\dots,X_i)$ conjuntamente) y por la prueba de Kolmogorov del 0-1 de la ley , ya sea la suma converge a.s. o se aparta de un.s.
3. Note que $\mathbb{E}[X_i]=+\infty$, así también por la fuerte ley de los grandes números (que se aplica a los truncamientos de los $X_i$'s) tenemos $\frac{X_1+\dots+X_k}{k}\+\infty$ a.s. Por lo tanto, si podemos reescribir nuestra serie como $\sum_{k=1}^\infty\frac{1}{k}\left(\frac{X_1+\dots+X_k}{k}\right)^{-1}$, podemos concluir que crece más lento que el de la serie armónica.
4. Fácil estimaciones muestran que el problema es equivalente a la convergencia de $\sum\limits_{k=1}^\infty \frac{1}{t_1^{-1}+\dots+t_k^{-1}}$, donde $(t_i)_{i\ge 1}$ es una secuencia de independiente uniforme de variables aleatorias en $(0,1)$.
5. Si utilizamos el $t_i$, podemos reescribir la suma de $\sum\limits_{k=1}^\infty\frac{1}{k} HM(t_1,\dots,t_k)$, donde $HM$ denota la media armónica. La desigualdad de $HM\le GM$ ($GM$ es la media geométrica) no ayuda, ya que por la fuerte ley de los grandes números nos dan $\sum\limits_{k=1}^\infty\frac{1}{k} GM(t_1,\dots,t_k)\sim\sum\limits_{k=1}^\infty\frac{\alpha}{k}=+\infty$, donde $\alpha:=\exp\left(\int_0^1 \log t\,dt\right)=\frac{1}{e}$.
No sé el origen del problema, pero es interesante como parece requerir de sharp estimaciones para resolverlo. Cualquier idea se agradece.
Respuestas
¿Demasiados anuncios?La serie $\sum\limits_{n=1}^\infty\frac1{S_n}$ se aparta casi seguramente, donde $S_n=X_1+\cdots+X_n$ para algunos que yo.yo.d. variables aleatorias $X$ y $(X_n)$ tal que $P(X\geqslant k)=\frac1k$ para cada entero positivo de $k$.
El mismo resultado se aplica a todos los positivos que yo.yo.d. secuencia de $X$ y $(X_n)$ tal que $x\cdot P(X\geqslant x)\leqslant c$ para algunos finito $c$, por cada $x$ lo suficientemente grande.
Una prueba de ello se utiliza el degenerado criterio de convergencia (parte 1.), que ofrece la convergencia en probabilidad de una versión a escala de los incrementos (parte 2.), y un lema que permite deducir el casi seguro de convergencia de la serie de esta convergencia en probabilidad (parte 3.). Todo esto sugiere un natural conjetura (parte 4.). Pero sucede que las partes 1. y 2. puede ser reemplazado por un sistema autónomo de argumento, se explica en el anexo A. Finalmente, en el anexo B. se demuestra el sencillo hecho de que el valor esperado de la suma diverge.
1. Una versión de la degenerados criterio de convergencia (véase el libro de Michel Loève, la teoría de la Probabilidad, la sección 23.5, página 329 (1963), o la comilla de Loève del libro de Allan Intestino en su artículo Una extensión de Feller débiles de ley de los grandes números, fecha de 2003, como el Teorema 1.2) es la siguiente.
Degenerados criterio de convergencia: Vamos a $S_n=X_1+\cdots+X_n$, donde $X$ y $(X_n)$ es i.yo.d., y $(b_n)$ algunos de secuencia positiva aumentando hasta el infinito. Introducir $$X^{(n)}=|X|\cdot\mathbf 1_{|X|\leqslant b_n},\qquad\mu_n=E(X^{(n)}),$$ y las condiciones:
- (i) Para cada positivo de $\varepsilon$, $n\cdot P(|X|\geqslant\varepsilon b_n)\to0$
- (ii) $n\cdot\mathrm{var}(X^{(n)})\ll b_n^2$
- (iii) $n\cdot \mu_n\ll b_n$
Entonces, las condiciones (i) y (ii) implica que $b_n^{-1}(S_n-n\cdot\mu_n)\to0$ en la probabilidad, por lo tanto las condiciones (i), (ii) y (iii) implica que $b_n^{-1}S_n\to0$ en la probabilidad.
2. En el presente caso, las condiciones (i) y (ii) tanto significa que $b_n\gg n$ y $\mu_n\sim\log b_n$ por lo tanto la elección de $b_n=n\log n$ muestra $S_n/(n\log n)\1$ en la probabilidad. Tenga en cuenta que cada elección $b_n\gg n\log n$ mostraría que $S_n/b_n\to0$ en la probabilidad, por ejemplo, $S_n/(n\log n\log\log n)\to0$ en la probabilidad.
3. Nuestra segunda herramienta general es un lema que hemos estado independiente.
Lema: Considere la posibilidad de cualquier secuencia de $(Y_n)$ de no negativo de las variables aleatorias y $(c_n)$ algunos de secuencia positiva tal que $P(Y_n\leqslant c_n)\to0$ y $\sum\limits_nc_n$ diverge, entonces $\sum\limits_nY_n$ diverge casi seguramente.
Prueba: Para cada evento $A$ que $P(a)\ne0$ existe alguna finito $n_A$ tal que, por cada $n\geqslant n_A$, $P(Y_n\leqslant c_n)\leqslant\frac12P(Una)$, en particular, $E(Y_n\mathbf 1_A)\geqslant c_nP(Y_n\geqslant c_n,A)\geqslant\frac12c_nP(A)$ para todo $n\geqslant n_A$ por lo tanto $E(Y\mathbf 1_A)=+\infty$, donde $ $ Y=\sum\limits_nY_n$. Esto es válido para cada $A$ que $P(a)\ne0$ por lo tanto $ $ Y=+\infty$, casi con toda seguridad, QED.
El lema anterior con $Y_n=1/S_n$ y $c_n=1/(2n\log n)$ muestra que $\sum\limits_{n=1}^\infty\frac1{S_n}$ se aparta casi seguramente.
4. En términos generales, a $S_n$ es de orden $n\log n$. Natural conjetura es que $$\frac1{\log\log n}\sum_{k=1}^n\frac1{S_n}$$ converge en distribución.
A. Para hacer esta respuesta completamente auto-contenido, aquí es una simple prueba de que $\frac{S_n}{n\log n}\a 1$ en la probabilidad.
Primero de todo, tenga en cuenta que $P(X_1>\alpha)<\frac{1}{\alpha}$ para cualquier real $\alpha>0$. Ahora a arreglar algunos entero positivo de $n$ y definir los truncamientos $X'_k:=X_k \mathbf{1}_{\{X_k\leqslant n\log n\}}$. Vamos también $S'_n:=X'_1+\dots+X'_n$ y $\mu_n:=E[X'_1]$. Desde $n\mu_n\sim n\log n$, esto es suficiente para mostrar que $\frac{S_n}{n\mu_n}\a 1$ en la probabilidad. Note que $P $\left(\left|\frac{S_n}{n\mu_n}-1\right|>\epsilon\right)\leqslant P(S_n\neq S'_n)+P\left(\left|\frac{S'_n}{n\mu_n}-1\right|>\epsilon\right) \leqslant nP(X_1>n\log n)+P\left(\left|\frac{S'_n}{n\mu_n}-1\right|>\epsilon\right).$$ El primer término es fácil obligado: $nP(X_1>n\log n)<n\frac{1}{n\log n}\to 0$ como $n\to\infty$.
La segunda puede ser limitada mediante la desigualdad de Chebyshev: $P $\left(\left|\frac{S'_n}{n\mu_n}-1\right|>\epsilon\right)\leqslant \frac{1}{\epsilon^2}\text{Var}\left(\frac{S'_n}{n\mu_n}\right)=\frac{\text{Var}(X'_1)}{\epsilon^2 n\mu_n^2} \leqslant\frac{n\log n}{\epsilon^2 n\mu_n^2}\sim\frac{n\log n}{\epsilon^2 n\log^2 n}\to 0,$$ donde hemos utilizado la evidente desigualdad de $\text{Var}(X'_1)\leqslant E[X_1'^2]=\sum\limits_{1\leqslant k\leqslant n\log n}\frac{k^2}{k(k+1)}\leqslant n\log n$.
B. La divergencia de expectativas es mucho más fácil de probar. Por simplicidad, suponga que $X = 1/U$, donde $U$ es distribuido uniformemente en $[0,1]$. Entonces $$ E\left[\frac{1}{X_1+\dots+X_n}\right] = E\left[\int_0^\infty e^{-t(X_1+\dots+X_n)}dt \right] = \int_0^\infty \left(E[e^{-tX}]\right)^n dt. $$ Ahora $$ 1-E[e^{-tX}] = \int_0^1 (1-e^{-t/u}) du = t\int_t^\infty (1-e^{-z} z^{-2} dz \sim -t\log t,\qquad t\a 0+. $$ Esto ya implica que la expectativa es infinito, ya que $$ E\left[\sum_{n=0}^\infty\frac{1}{X_1+\dots+X_n}\right] = \int_0^\infty \frac{dt}{1-E[e^{-tx}]} $$ y el integrando se comporta como $\frac{-1}{t\log t}$ como $t\a 0+$.
También esto permite escribir asymptotics para uno sumando: $n\to\infty$, $$ E\left[\frac{1}{X_1+\dots+X_n}\right] = \int_0^\infty \left(E[e^{-tX}]\right)^n dt \sim \int_0^\epsilon \left(E[e^{-tX}]\right)^n dt\\ \sim \int_0^\epsilon e^{n t\log t} dt \sim \int_0^{\delta} e^{-nu}\frac{du}{- \log u}\sim \frac{1}{n\log n}, $$ lo cual está de acuerdo con la convergencia de la probabilidad $S_n/n\log n\a 1$.
Se aparta un.s. ya que por degenerados criterio de convergencia (Teorema de $1.2$): $$T_n^{-1}=\frac {X_1+\dots+X_n} {n\log n}\desbordado{p}\to 1$$
Efectivamente, supongamos que $P_n=\sum_{k=1}^n 1/S_k=\sum_{k=1}^n \frac {T_k}{k\log k}\L$ y dejar que $A$ ser cualquier conjunto de medida positiva. A $$E(L1_A)=\lim_{n\to\infty} E(P_n1_A)=\infty$$ y $L=\infty$ a.s. de la siguiente manera.
Podemos demostrar esto vale para todas las secuencias de yo.yo.d. $X_i$ tales que $xP(X_i\ge x)=O(\log\log x)$ si comparamos $S_n$ con $n\log n\log\log n$ en su lugar.
Pero podemos hacer más con la secuencia original. Combinar $T_k\desbordado{p}\to 1$ con $E(T_k)\sim 1$ (como se muestra por @zhoraster en la wiki de la comunidad) y recordar que $T_k-1>-1$ para obtener de inmediato
$$E\left(\frac{\sum_{k=1}^n\frac{|T_k-1|}{k\log k}}{\log\log n}\right)\to 0$$ que los rendimientos de
$$\frac {\sum_{k=1}^n1/S_k}{\log\log n}\desbordado{L^1}\longrightarrow 1$$ Queda por encontrar escala que produce un no-degenerada de la ley (si es que existe).