Deje que $\mathcal{U}_{1} , \mathcal{U}_{2}, \ldots $ sea una secuencia de variables aleatorias uniformes e independientes en $(0,1)$. Encuentra $E[N]$ cuando $N = \min{\left\{n: \sum_{i=1}^{n} \mathcal{U}_{i} > 1 \right\}} $.
Deje que $N$ sea el número de variables aleatorias uniformes que necesitan ser sumadas para exceder $1$.
$$ N(x) = \min {\left\{n : \sum_{j=1}^{n} \mathcal{U}_{i} > x \right\}}$$ Deje que $m(x) = E[N(x)] = E \ [E \ [N(x)\mid \mathcal{U}_{1} ] \ ]= \int_{0}^{1} E \ [ N(x) \mid \mathcal{U}_{1} = y] \ dy $, donde $$ E \ [ N(x)\mid \mathcal{U}_{1} = y] = \begin{cases}1 & \text{si $y>x$}\\ 1 + E[(n-y)] & \text{si $y \leq x$}\end{cases}$$
Tengo un problema conceptual entendiendo la motivación detrás de la expresión para el segundo caso anterior. ¿Alguien estaría dispuesto a arrojar algo de luz sobre esto?
$$E \ [ N(x)\mid \mathcal{U}_{1} = y]=\begin{cases}1 & \text{si $y>x$}\\1 + m(x-y) & \text{si $y \leq x$}\end{cases} = 1 + \begin{cases}0 & \text{si $y>x$}\\ m(x-y) & \text{si $y \leq x$}\\\end{cases}$$ y así $$ m(x) = 1 + \int_{0}^{x} m(x-y) \ dy \implies m'(x) = 0 + m(0) + \int_{0}^{x} m'(x-y) \ dy $$ Realizamos un cambio de variables con $u = x -y$ y $du = - dy$
$$ m'(x)= m(0) - m(x-y) \ \bigg\vert_{0}^{X} $$ Sustituimos el valor inicial $ m(0) = 1 $ y simplificamos la antiderivada: $$ m'(x) = m(0) - [m(0) - m(x)] \implies m(x) = C_{0} e^{x} $$ donde $ C_{0} = 1 $, entonces $ m(x) = e^{x}$ y $$ m(1) = e $$
Este resultado parece bastante ordenado ya que el $e$ aparece sin hacer mención de la constante en ninguna parte de la pregunta. Sin embargo, no puedo apreciarlo sin entender el origen del término $1 + m(x-y)$.