Pista para la primera pregunta. No sólo que la suma converge y tiene finita expectativa, su distribución es bien conocido: Dickman de distribución.
Una colección de hechos en el generalizado Dickman distribución basada parcialmente en el papel de "Random mínimo dirigida árboles de expansión y Dickman-tipo de distribuciones" de Mathew D. Penrose y Andrew R. Wade [Fuente: Adv. en Appl. El Probab. Volumen 36, Número 3 (2004), 691-714.]
Fijo $\theta > 0$ (en el caso de $\theta = 1$ corresponde a la pregunta en cuestión), definir una variable aleatoria $X$ por
$$
X = U_1^{1/\theta } + (U_1 U_2 )^{1/\theta } + (U_1 U_2 U_3 )^{1/\theta } + \cdots ,
$$
donde $U_1,U_2,\ldots$ es una secuencia de independiente uniformes$(0,1)$ variables.
El hecho de que el infinito al azar de la serie converge casi seguramente se sigue del teorema de convergencia monótona (nota de que los términos son no negativos, y considerar la expectativa). La variable aleatoria $X$ es igual a la distribución a $U^{1/\theta } (1+X)$ donde $U$ es uniforme a lo$(0,1)$ e independiente de $X$. La distribución de $X$ es conocida como la generalizada Dickman de distribución con el parámetro $\theta$ (el ordinario caso de ser $\theta=1$), y se denota por GD$(\theta)$.
La variable aleatoria $X$ puede ser representado (en la ley) como $X = \sum\nolimits_{n = 1}^\infty {Y_n }$ donde $Y_1 > Y_2 > \cdots$ son puntos de Poisson punto del proceso en $(0,1)$ con una intensidad de medida $(\theta/x)\,{\rm d}x$. Equivalentemente, considere la posibilidad de un aumento de L\'evy proceso (subordinator) $X=\{X(t):t \geq 0\}$ (es decir, $X$ es un proceso creciente fijo independiente de incrementos, a partir de a $0$) con L\'evy medida $\nu({\rm d}x) = (\theta/x)\,{\rm d}x$. Es una muestra de las rutas con infinidad de saltos en el intervalo de tiempo $[s,t]$, para cualquier $0 \leq s < t$. Específicamente, el número de saltos en el intervalo de tiempo $[s,t]$ con tamaño en $B \subset (0,1)$ se distribuye Poisson con una media de $(t-s)\nu(B)$ (tenga en cuenta que $\nu((0,1)) = \int_0^1 {(\theta /x)\,{\rm d}x} = \infty$; de ahí que el infinito número de saltos en el tiempo finito de intervalos). La distribución de la variable aleatoria $X(1)$ es GD$(\theta)$. Para $\theta = 1$, esto corresponde a la pregunta en cuestión de la siguiente manera. Un ejemplo de ruta del proceso de $X$ en el intervalo de tiempo $[0,1]$ puede ser realizado de la siguiente manera. Con $U_1,U_2,\ldots$ independiente uniformes$(0,1)$ variables, deje que el tamaño de la más grande de saltar ser $V_1=U_1$. El correspondiente salto de tiempo se distribuye uniformemente en la unidad de intervalo de tiempo. Ahora bien, dado $V_1 = v_1$, el tamaño de la segunda mayor salto, $V_2$, se distribuye de la ${\rm uniform}(0,v_1)$, que es igual a la distribución a $v_1 U_2$. Como siempre, el correspondiente salto de tiempo es independiente y distribuidos uniformemente sobre la unidad de intervalo de tiempo. Siguiente, dado $V_2 = v_2$, el tamaño de la tercera mayor salto, $V_3$, se distribuye de la ${\rm uniform}(0,v_2)$, que es igual a la distribución a $v_2 U_3$. Continuar de esta manera a la conclusión de que la $X(1)$ es igual a la distribución a $U_1+U_1U_2+U_1U_2U_3+ \cdots$.
El hecho de que la GD$(\theta)$ distribución corresponde a una distribución marginal de L\'evy proceso implica que es infinitamente divisible. De hecho, si $X_1$ $X_2$ son independientes GD$(\theta_i)$, $i=1,2$, variables aleatorias, a continuación, $X_1+X_2$ es un GD$(\theta_1 + \theta_2)$ variable aleatoria. Por otra parte,
la transformada de Laplace de $X \sim {\rm GD}(\theta)$ está dado por
$$
{\rm E}[e^{ - uX} ] = \exp \bigg(\int_0^1 {e^{ - ux} - 1})\nu ({\rm d}x)\bigg) = \exp \bigg(\theta \int_0^1 {\frac{{e^{ - ux} - 1}}{x}\,{\rm d}x \bigg)} , \;\; u \geq 0.
$$
El $k$th cumulant de $X$$\kappa_k = \theta/k$. Así, en particular, ${\rm E}(X)=\kappa_1 = \theta$${\rm Var}(X)=\kappa_2 = \theta/2$. También hay un elegante fórmula recursiva para la $n$th momento.
La función de distribución de $X$ es bastante complicado, y puede ser expresada como una suma de integrales múltiples (para ser elaborado en otra respuesta). En particular, la función de densidad de probabilidad para el caso de $\theta = 1$ está dado por $e^{-\gamma}\rho(x)$ donde $\rho$ es el conocido Dickman función.