Como sugiere pedrosuavo, la clave aquí es la expectativa condicional; y, más concretamente, la fórmula $$\tag{1} \DeclareMathOperator{\E}{\mathbb{E}}\E\bigl[\E[e^{tS_N}\mid N]\bigr]=\E[e^{tS_N}]. $$ Conicidido en $N=n$ , $S_N$ se distribuye como $S_n$ para que $$ \E[e^{tS_N}\mid N=n]=\E[e^{tS_n}\mid N=n]=\E[e^{tS_n}], $$ desde $S_n$ y $N$ son independientes. Pero, como $X_1,\ldots,X_n$ son independientes e idénticamente distribuidos, tenemos $$ \E[e^{tS_n}]=\E[e^{tX_1}\cdots e^{tX_n}]=\prod_{i=1}^{n}\E[e^{tX_i}]=(\E[e^{tX_1}])^n $$ proporcionó $n\geq 1$ . En este caso, sabemos que $$ \E[e^{tX_1}]=\int_0^{\infty}\lambda e^{-\lambda x}e^{tx}\,dx. $$ Así, la función $t\mapsto \E[e^{tX_1}]$ tiene dominio $t\in(-\infty,\lambda)$ y para ello $t$ tenemos $\E[e^{tX_1}]=\frac{\lambda}{\lambda-t}$ .
Así, para $n\geq 1$ y $t<\lambda$ tenemos $$ \E[e^{tS_N}\mid N=n]=\left(\frac{\lambda}{\lambda-t}\right)^n. $$ ¿Qué pasa cuando $n=0$ ? Tenemos $S_0=0$ para que $\E[e^{tS_0}]=1=\left(\frac{\lambda}{\lambda-t}\right)^0$ .
Así, volviendo a la fórmula (1), tenemos que para $t<\lambda$ , $$ \begin{align} \E[e^{tS_N}]&=\sum_{n=0}^{\infty}\E[e^{tS_N}\mid N=n]\cdot P(N=n)\\ &=\sum_{n=0}^{\infty}\left(\frac{\lambda}{\lambda-t}\right)^n\frac{e^{-\lambda}\lambda^n}{n!}\\ &=\exp\left[\frac{t\lambda}{\lambda-t}\right]. \end{align} $$ Basándonos en esto, podemos calcular $\E[S_N]$ ; si $\phi(x)$ es el MGF para $S_N$ entonces sabemos que $\E[S_N]=\phi'(0)=1$ .
(Convenientemente, esto coincide con nuestra idea heurística de que $\E[S_N]$ debería ser algo así como $\E[N]\cdot\E[X_i]=\lambda\cdot\lambda^{-1}$ .)