Obtuve este problema de Introduction to Probability por Anderson D, Seppalainen T, Valko B. Es el problema de desafío 10.55.
Sea $X_1,X_2,...$ sean variables aleatorias i.i.d. y $N$ una variable aleatoria independiente de valor entero no negativo. Sea $S_N=X_1+...+X_N$ . Supongamos que la f.g.m. de $X_i$ denotado $M_X(t)$ y la f.g.m. de $N$ denotado $M_N(t)$ son finitos en algún intervalo $(-\delta,\delta)$ alrededor del origen.
- Expresar la f.g.m. $M_{S_N}(t)$ de $S_N$ en términos de $M_X(t)$ y $M_N(t)$ .
- Supongamos que $N\sim Poisson(\lambda)$ y $X\sim Ber(p)$ deduzca cuál es la distribución de $S_N$ de la primera parte.
- Calcular el segundo momento $\mathbb{E}[S^2_N]$ en función de los momentos de $X$ y $N$ y deducir la varianza de $S_N$ en términos de medias y varianzas de $X$ y $N$ .
Mi intento
- Tenemos la fórmula: Si $X_1,...,X_n$ son independientes, entonces $$M_{X_1+...+X_n}(t)=M_{X_1}\cdot...\cdot M_{X_n}(t)$$ Así que $M_{S_N}=M_{X_1}(t)\cdot...\cdot M_{X_N}(t)$ pero lo necesitamos en términos de $M_X{t}$ y $M_{N}(t)$ . Esta es la parte en la que tengo problemas ya que $N$ es una variable aleatoria, no un número.
Una pista que me dieron es que debería descomponer el cálculo de la expectativa condicionando w.r.t. $N$ .
Así que si lo intento, tengo $$\mathbb{E}[e^{tS_N}|N=1]=\mathbb{E}[e^{tX_1}]$$ $$\mathbb{E}[e^{tS_N}|N=2]=\mathbb{E}[e^{tX_1}]\mathbb{E}[e^{tX_2}]$$ y así sucesivamente... Pero ¿cómo podría juntar todo esto para encontrar sólo $\mathbb{E}[e^{tS_N}]$ y hacerlo en términos de $M_X(t)$ y $M_N(t)$ ?
- Para esta parte, ¿no es el segundo momento igual a la varianza? Por lo que tengo entendido sobre las funciones generadoras de momentos, el primer momento es la expectativa y el segundo momento es la varianza. ¿Por qué pide los dos?