1 votos

Hallar la varianza de $S_N$ en términos de medias y varianzas de $X$ y $N$

Obtuve este problema de Introduction to Probability por Anderson D, Seppalainen T, Valko B. Es el problema de desafío 10.55.

Sea $X_1,X_2,...$ sean variables aleatorias i.i.d. y $N$ una variable aleatoria independiente de valor entero no negativo. Sea $S_N=X_1+...+X_N$ . Supongamos que la f.g.m. de $X_i$ denotado $M_X(t)$ y la f.g.m. de $N$ denotado $M_N(t)$ son finitos en algún intervalo $(-\delta,\delta)$ alrededor del origen.

  1. Expresar la f.g.m. $M_{S_N}(t)$ de $S_N$ en términos de $M_X(t)$ y $M_N(t)$ .
  2. Supongamos que $N\sim Poisson(\lambda)$ y $X\sim Ber(p)$ deduzca cuál es la distribución de $S_N$ de la primera parte.
  3. Calcular el segundo momento $\mathbb{E}[S^2_N]$ en función de los momentos de $X$ y $N$ y deducir la varianza de $S_N$ en términos de medias y varianzas de $X$ y $N$ .

Mi intento

  1. Tenemos la fórmula: Si $X_1,...,X_n$ son independientes, entonces $$M_{X_1+...+X_n}(t)=M_{X_1}\cdot...\cdot M_{X_n}(t)$$ Así que $M_{S_N}=M_{X_1}(t)\cdot...\cdot M_{X_N}(t)$ pero lo necesitamos en términos de $M_X{t}$ y $M_{N}(t)$ . Esta es la parte en la que tengo problemas ya que $N$ es una variable aleatoria, no un número.

Una pista que me dieron es que debería descomponer el cálculo de la expectativa condicionando w.r.t. $N$ .

Así que si lo intento, tengo $$\mathbb{E}[e^{tS_N}|N=1]=\mathbb{E}[e^{tX_1}]$$ $$\mathbb{E}[e^{tS_N}|N=2]=\mathbb{E}[e^{tX_1}]\mathbb{E}[e^{tX_2}]$$ y así sucesivamente... Pero ¿cómo podría juntar todo esto para encontrar sólo $\mathbb{E}[e^{tS_N}]$ y hacerlo en términos de $M_X(t)$ y $M_N(t)$ ?

  1. Para esta parte, ¿no es el segundo momento igual a la varianza? Por lo que tengo entendido sobre las funciones generadoras de momentos, el primer momento es la expectativa y el segundo momento es la varianza. ¿Por qué pide los dos?

1voto

BranBar Puntos 23

Así que para la primera parte podemos escribir, \begin{align} M_{S_N}(t) = \mathbb{E}[e^{tS_{N}}] &= \mathbb{E}[e^{t\sum_{i=1}^{N}X_i}] \\ &= \mathbb{E}\left[\mathbb{E}[e^{t\sum_{i=1}^{N}X_i}|N]\right], \hspace{5mm} \text{l.i.e} \\ &= \mathbb{E}\left[(\mathbb{E}[e^{tX_1}])^N\right] \\ &= \mathbb{E}\left[e^{\ln(M_X(t))N}\right] \\ &= M_N(\ln(M_X(t))). \end{align}

Para la tercera parte, No el segundo momento no es en general igual a la varianza. Los momentos vienen dados por $\mathbb{E}[X^k]$ con $k = 1,2,...$ Por tanto, la varianza es igual al segundo momento si $\mathbb{E}[X] = 0$ .

Ahora tenemos que el $k$ 'th momento de $X$ se puede encontrar tomando la $k$ derivada de la función generadora de momentos de $X$ y evaluarlo en $0$ es decir $\mathbb{E}[X^k] = M_{X}^{(k)}(0)$ . Aquí $(k)$ denota el $k$ derivada.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X