Deje $X_t = \sum_{i=1}^{N_t} Y_i$ $N_t$ ser un proceso de Poisson con la intensidad de la $\lambda >0$. Supongamos $Y_i$ son yo.yo.d. (independiente de $N_t$) con distribución normal $N(m,\sigma^2)$. Calcular $Var(X_t)$.
La MGF de $X_t$ es:
$\psi_{X_t}(u) = e^{\lambda t (\psi_Y(u) -1)}$
A continuación,
$\dfrac{d}{du}\psi_{X_t}(u) = \lambda t \dfrac{d}{du}\psi_{Y}(u) e^{\lambda t (\psi_Y(u) -1)}$
Y,
$\dfrac{d^2}{du^2}\psi_{X_t}(u) = (\lambda t)^2 (\dfrac{d}{du}\psi_{Y}(u))^2 + \lambda t \dfrac{d^2}{du^2}\psi_{Y}(u) e^{\lambda t (\psi_Y(u) -1)}$
Así,
$E(X_t^2) = \dfrac{d^2}{du^2}\psi_{X_t}(u) |_{u=0} = (\lambda t)^2 m^2 + \lambda t \sigma ^2 $
$=>Var(X_t) = (\lambda t)^2 m^2 + \lambda t \sigma ^2 - (\lambda t m)^2 = \lambda t \sigma ^2 $
Pero en la wikipedia: $\lambda t m^2 + \lambda t \sigma ^2 $
¿Por qué mi respuesta no idéntica a la de la wikipedia? Utilizan un método diferente por lo que no puedo hacer el seguimiento de mi error.
Respuesta
¿Demasiados anuncios?Por la ley de la varianza total, \begin{align} \mathrm{Var}(X(t)) &= \mathbb E[\mathrm{Var}(X(t))\mid N(t)] + \mathrm{Var}(\mathbb E[X(t)\mid N(t)])\\ &= \mathbb E[N(t)\mathrm{Var}(Y_1)] + \mathrm{Var}(N(t)\mathbb E[Y_1])\\ &= \sigma^2\mathbb E[N(t)] + m^2\mathrm{Var}(N(t))\\ &= \sigma^2\lambda t+ m^2\lambda t\\ &= (\sigma^2 + m^2)\lambda t. \end{align} La MGF de $X(t)$ es $$\varphi_{X(t)}(s)=e^{\lambda t\left(\varphi_{Y_1}(s)-1\right)} $$ donde $$\varphi_{Y_1}(s) = e^{ms + \frac12\sigma^2s^2}.$$ Tenemos \begin{align} \frac{\mathsf d}{\mathsf ds}\varphi_{Y_1}(s)&=\left(m+s \sigma^2\right) e^{ms+\frac12\sigma^2 s^2},\\ \frac{\mathsf d^2}{\mathsf d^2s}\varphi_{Y_1}(s)&=\sigma ^2 e^{ms+\frac12\sigma^2 s^2}+\left(m+s \sigma ^2\right)^2 e^{ms+\frac12\sigma^2 s^2}, \end{align} así \begin{align} \mathbb E[Y_1]&=\varphi_{Y_1}'(0)=m\\ \mathbb E[Y_1^2]&=\varphi_{Y_1}''(0)=m^2+\sigma^2. \\ \end{align} Por lo tanto \begin{align} \frac{\mathsf d}{\mathsf ds}\varphi_{X(t)}(s)&=\lambda t\varphi_{Y_1}'(s) e^{\lambda t\left(\varphi_{Y_1}(s)-1\right)} \\ \frac{\mathsf d^2}{\mathsf d^2s}\varphi_{X(t)}(s)&= \lambda t\left(\lambda t\varphi_{Y_1}'(s)^2 + \varphi_{Y_1}''(s)\right)e^{\lambda t\left(\varphi_{Y_1}(s)-1\right)} \end{align} así que \begin{align} \mathbb E[X(t)]&=\varphi_{X(t)}'(0)=\lambda tm \\ \mathbb E[X(t)^2]&=\varphi_{X(t)}''(0)= \lambda t(\lambda tm^2+m^2+\sigma^2). \\ \end{align} Por lo tanto \begin{align} \operatorname{Var}(X(t)) &= E[X(t)^2] - E[X(t)]^2\\ &= \lambda t(\lambda tm^2+m^2+\sigma^2) - \lambda^2 t^2 m^2\\ &= \lambda t(\lambda tm^2+m^2+\sigma^2 - \lambda t m^2)\\ &= \lambda t(m^2+\sigma^2). \end{align}