Afirmamos que la probabilidad deseada es
$$ \boxed{ 1 - e^{-\gamma} \approx 0.438541 }, $$
donde $\gamma$ es el Constante de Euler-Mascheroni .
Primer paso. Sea $Z_1, Z_2, \ldots$ ser i.i.d. $\text{Uniform}(0, 1)$ -variables. Entonces la suma en cuestión puede realizarse como
$$ S = \sum_{k=1}^{\infty} Z_1 \cdots Z_k. \tag{*} $$
A partir de aquí, es fácil comprobar que
$$ S \stackrel{d}= U(1 + S), \tag{1} $$
donde $U$ es un $\text{Uniform}(0, 1)$ -variable independiente de $S$ y $\stackrel{d}=$ significa igualdad en la distribución. Por lo tanto, si $F(\cdot)$ denota la FDA de $S$ entonces para $x > 0$ ,
\begin{align*} F(x) = \mathbf{P}(S \leq x) = \int_{0}^{1} \mathbf{P}(u(1+S) \leq x) \, \mathrm{d}u \stackrel{(u=x/t)}= x \int_{x}^{\infty} t^{-2} F(t - 1) \, \mathrm{d}t. \tag{2} \end{align*}
Segundo paso. La ecuación $\text{(2)}$ muestra que $F(x)$ es absolutamente continua. Además, para $x \in (0, 1]$ ,
$$ F(x) = x \int_{1}^{\infty} t^{-2} F(t - 1) \, \mathrm{d}t = F(1)x $$
y, por tanto, la densidad $f(x) = F'(x)$ satisface $f(x) = F(1)$ para $x$ entre $0$ y $1$ .
Paso 3. Sea $\mu_n = \mathbf{E}[S^n]$ sea el $n$ momento de $S$ y que $M(\xi) = \mathbf{E}[e^{\xi S}] = \sum_{n=0}^{\infty} \frac{\mu_n}{n!} \xi^n$ denotan la función generadora de momentos de $S$ . Entonces
\begin{align*} \mu_n = \mathbf{E}[S^n] = \mathbf{E}[U^n(1 + S)^n] = \frac{1}{n+1} \sum_{k=0}^{n} \binom{n}{k} \mu_k. \end{align*}
A partir de esto, encontramos que $M(\cdot)$ resuelve la ecuación diferencial
$$ (\xi M(\xi))' = e^{\xi} M(\xi). $$
Junto con la condición inicial $M(0) = 1$ se obtiene
$$ M(\xi) = \exp \left( \int_{0}^{1} \frac{e^{\xi t} - 1}{t} \, \mathrm{d}t \right). \tag{3} $$
Paso 4. Por último, la afirmación principal se obtendrá una vez que demostremos que $\mathbf{P}(S \leq 1) = e^{-\gamma}$ . Sin embargo,
\begin{align*} \mathbf{P}(S \leq 1) = F(1) &= f(0^+) \\ &= \lim_{r \to \infty} \int_{0}^{\infty} r e^{-rt} f(t) \, \mathrm{d}t \\ &= \lim_{r \to \infty} r \mathbf{E}[e^{-rS}] \\ &= \lim_{r \to \infty} r \exp \biggl( \int_{0}^{1} \frac{e^{-r t} - 1}{t} \, \mathrm{d}t \biggr) \tag{by (3)} \\ &= \lim_{r \to \infty} \exp \biggl( \int_{0}^{r} \frac{e^{-s} - \mathbf{1}_{[0,1]}(s)}{s} \, \mathrm{d}s \biggr) \tag{$s=rt$} \\ &= \exp \biggl( \int_{0}^{\infty} \frac{e^{-s} - \mathbf{1}_{[0,1]}(s)}{s} \, \mathrm{d}s \biggr). \end{align*}
No es difícil demostrar que la integral de la última línea es igual a $-\gamma$ por lo que se llega a la conclusión deseada. $\square$
Observaciones adicionales. Sólo por diversión, he aquí una descripción alternativa de la distribución de $S$ . Sea $\nu$ ser un Proceso puntual de Poisson de intensidad unitaria en $\mathbb{R}^2$ y que $N(A) = \nu(A\times[0,1])$ para que $N$ es un proceso puntual de Poisson de intensidad unitaria en $\mathbb{R}$ . Entonces la suma $S$ definido en $\text{(*)}$ satisface
$$ S \stackrel{d}= \int_{(-\infty, 0]} e^{x} \, N(\mathrm{d}x) = \int_{(-\infty, 0]\times[0, 1]} e^{x} \, \nu(\mathrm{d}x\mathrm{d}y). $$
Ahora hay dos formas de ampliar la distribución de $S$ :
-
Podemos dejar que varíe la dirección vertical del dominio de integración. Así, definiremos $$ L(t) = \int_{(-\infty, 0]\times[0, t]} e^{x} \, \nu(\mathrm{d}x\mathrm{d}y). $$ Entonces $L$ es un subordinator con deriva cero y medida de Lévy $x^{-1}\mathbf{1}_{(0,1)}(x) \, \mathrm{d}x$ tal que $L(1)$ tiene la misma distribución que $S$ . En particular, la distribución de $S$ es infinitamente divisible. Sin embargo, no estoy seguro de que esto ayude a entender el problema original.
-
En su lugar, podemos dejar que la dirección horizontal del dominio varíe. Así, dejemos que $$ X(t) = \int_{(-\infty, t]} e^{x-t} \, N(\mathrm{d}x). $$ Entonces $X$ es un proceso estacionario (ya que $X(t) \sim S$ para cualquier $t$ ) que resuelve la EDE de la forma $$ \mathrm{d}X(t) = -X(t) \, \mathrm{d}t + \mathrm{d}N(t). $$ Abusando un poco de la notación, esto nos dice que MGF $M(\cdot)$ de $S$ satisface \begin{align*} M(\xi) &= \mathbf{E}[\exp(\xi X(t+\mathrm{d}t))] \\ &= \mathbf{E}[\exp(\xi (1-\mathrm{d}t)X(t) + \xi \, \mathrm{d}N(t))] \\ &= M(\xi - \xi \, \mathrm{d}t) (1 + (e^{\xi} - 1) \, \mathrm{d}t) \\ &= M(\xi) + [ (e^{\xi} - 1) M(\xi) - \xi M'(\xi) ] \, \mathrm{d}t \end{align*} y por lo tanto reproduce la ecuación diferencial para $M(\cdot)$ , $$ (e^{\xi} - 1) M(\xi) - \xi M'(\xi) = 0. $$ Este enfoque también ofrece una visión más transparente del fenómeno en el que el FCD $F(\cdot)$ de $S$ resuelve una ecuación integral con retardo $\text{(2)}$ y, por tanto, viene dada por diferentes fórmulas en diferentes intervalos de la forma $[k-1, k]$ , $k = 1, 2, 3, \ldots$ . De hecho, esto parece estar relacionado con el salto ocasional $\mathrm{d}N(t)$ del tamaño de la unidad.
Para mí, esto parece insinuar que el proceso $X$ puede utilizarse para estudiar la distribución de $S$ . Pero de nuevo, no tengo ninguna buena idea en esta dirección ahora.