En la obra de Sheldon Ross Primer curso de probabilidad hay una prueba fácil de seguir:
Modificando un poco la notación de la OP, $U_i \overset{iid}\sim \mathcal{U}(0,1)$ y $Y$ el número mínimo de mandatos para $U_1 + U_2 + \dots + U_Y > 1$ o expresado de forma diferente:
$$Y = min\Big\{n: \sum_{i=1}^n U_i>1\Big\}$$
Si en lugar de eso buscamos:
$$Y(u) = min\Big\{n: \sum_{i=1}^n U_i>u\Big\}$$ para $u\in[0,1]$ definimos el $f(u)=\mathbb E[Y(u)]$ que expresa la expectativa del número de realizaciones de extracciones uniformes que superarán $u$ cuando se añade.
Podemos aplicar las siguientes propiedades generales para variables continuas:
$E[X] = E[E[X|Y]]=\displaystyle\int_{-\infty}^{\infty}E[X|Y=y]\,f_Y(y)\,dy$
expresar $f(u)$ condicionado al resultado del primer uniforme, y obteniendo una ecuación manejable gracias al pdf de $X \sim U(0,1)$ , $f_Y(y)=1.$ Sería esto:
$$f(u)=\displaystyle\int_0^1 \mathbb E[Y(u)|U_1=x]\,dx \tag 1$$
Si el $U_1=x$ que estamos condicionando es mayor que $u$ es decir $x>u$ , $\mathbb E[Y(u)|U_1=x] =1 .$ Si, por el contrario, $x <u$ , $\mathbb E[Y(u)|U_1=x] =1 + f(u - x)$ porque ya hemos dibujado $1$ aleatorio uniforme, y todavía tenemos la diferencia entre $x$ y $u$ para cubrir. Volviendo a la ecuación (1):
$$f(u) = 1 + \displaystyle\int_0^x f(u - x) \,dx$$ y sustituyendo $w = u - x$ tendríamos $f(u) = 1 + \displaystyle\int_0^x f(w) \,dw$ .
Si diferenciamos ambos lados de esta ecuación, podemos ver que:
$$f'(u) = f(u)\implies \frac{f'(u)}{f(u)}=1$$
con una última integración obtenemos:
$$log[f(u)] = u + c \implies f(u) = k \,e^u$$
Sabemos que la expectativa de que extraer una muestra de la distribución uniforme y superar $0$ est $1$ o $f(0) = 1$ . Por lo tanto, $k = 1$ y $f(u)=e^u$ . Por lo tanto $f(1) = e.$