34 votos

Cálculo del n-ésimo momento central de la distribución normal $ \mathcal {N}( \mu , \sigma ^2)$

Ya que la integración no es mi fuerte, necesito un poco de información sobre esto, por favor:

Deje que $Y$ ser $ \mathcal {N}( \mu , \sigma ^2)$ el distrubución normal con parámetros $ \mu $ y $ \sigma ^2$ . Lo sé. $ \mu $ es el valor de la expectativa y $ \sigma $ es la variación de $Y$ .

Quiero calcular el $n$ - los momentos centrales de $Y$ .

El función de densidad de $Y$ es $$f(x)= \frac {1}{ \sigma\sqrt {2 \pi }}e^{- \frac {1}{2} \left ( \frac {y- \mu }{ \sigma } \right )^2}$$

El $n$ -th momento central de $Y$ es $$E[(Y-E(Y))^n]$$

El $n$ -th momento de $Y$ es $$E(Y^n)= \psi ^{(n)}(0)$$ donde $ \psi $ es el Función generadora de momentos $$ \psi (t)=E(e^{tX})$$

Así que empecé a calcular:

$$ \begin {align} E[(Y-E(Y))^n]&= \int_\mathbb {R} \left (f(x)- \int_\mathbb {R}f(x)dx \right )^n\,dx \\ &= \int_\mathbb {R} \sum_ {k=0}^n \left [ \binom {n}{k}(f(x))^k \left (- \int_\mathbb {R}f(x)dx \right )^{n-k} \right ]\,dx \\ &= \sum_ {k=0}^n \binom {n}{k} \left ( \int_\mathbb {R} \left [(f(x))^k \left (- \int_\mathbb {R}f(x)dx \right )^{n-k} \right ]\,dx \right ) \\ &= \sum_ {k=0}^n \binom {n}{k} \left ( \int_\mathbb {R} \left [(f(x))^k \left (- \mu\right )^{n-k} \right ]\,dx \right ) \\ &= \sum_ {k=0}^n \binom {n}{k} \left ((- \mu )^{n-k} \int_\mathbb {R}(f(x))^k\,dx \right ) \\ &= \sum_ {k=0}^n \binom {n}{k} \left ((- \mu )^{n-k}E \left (Y^k \right ) \right ) \\ \end {align}$$

¿Estoy en el camino correcto o completamente equivocado? Si no he cometido errores hasta ahora, me gustaría inspirarme porque estoy atrapado aquí. ¡Gracias!

1 votos

Desde $YE(Y)$ tiene media $0$ y en este caso se distribuye normalmente $N(0,\sigma^2)$ El $n$ -el momento central no debe verse afectado por la media original $\mu$ .

0 votos

Lo que tienes hasta ahora es correcto, pero como señala @Henry, los momentos centrales son invariantes bajo un desplazamiento. Así que puedes simplificar las cosas tomando $\mu=0$ desde el principio. En cualquier caso, todavía hay que encontrar $E[Y^n]$ para la distribución normal con media $0$ .

1 votos

Tu pregunta tiene una errata en la densidad normal: debería haber un cuadrado en el exponente. Además, no estoy de acuerdo con la afirmación de @mjqxxxx de que lo que tienes hasta ahora es correcto". El primer paso $$E[(Y-E(Y))^n]=\int_\mathbb{R}\left(f(x)-\int_\mathbb{R}f(x)dx\right)^n\,dx$$ es erróneo: debería decir $$E[(Y-E(Y))^n]=\int_\mathbb{R}\left(x-\int_\mathbb{R}xf(x)dx\right)^nf(x)\,dx=\int_\mathbb{R}\left(x-\mu\right)^nf(x)\,dx$$ y el último paso sigue inmediatamente después de expandir $(x-\mu)^n$ mediante el teorema del binomio, separando en una suma de integrales, e identificando $\int_\mathbb{R}x^kf(x)\,dx=E[Y^k]$ .

48voto

Robert Christie Puntos 7323

El $n$ -el momento central $\hat{m}_n = \mathbb{E}\left( \left(X-\mathbb{E}(X)\right)^n \right)$ . Obsérvese que para la distribución normal $\mathbb{E}(X) = \mu$ y que $Y = X-\mu$ también sigue una distribución normal, con media cero y la misma varianza $\sigma^2$ como $X$ .

Por lo tanto, encontrar el momento central de $X$ equivale a encontrar el momento bruto de $Y$ .

En otras palabras, $$ \begin{eqnarray} \hat{m}_n &=& \mathbb{E}\left( \left(X-\mathbb{E}(X)\right)^n \right) = \mathbb{E}\left( \left(X-\mu\right)^n \right) = \int_{-\infty}^\infty \frac{1}{\sqrt{2\pi} \sigma} (x-\mu)^n \mathrm{e}^{-\frac{(x-\mu)^2}{2 \sigma^2}} \mathrm{d} x\\ & \stackrel{y=x-\mu}{=}& \int_{-\infty}^\infty \frac{1}{\sqrt{2\pi} \sigma} y^n \mathrm{e}^{-\frac{y^2}{2 \sigma^2}} \mathrm{d} y \stackrel{y = \sigma u}{=} \int_{-\infty}^\infty \frac{1}{\sqrt{2\pi} \sigma} \sigma^n u^n \mathrm{e}^{-\frac{u^2}{2}} \sigma \mathrm{d} u \\ &=& \sigma^n \int_{-\infty}^\infty \frac{1}{\sqrt{2\pi} } u^n \mathrm{e}^{-\frac{u^2}{2}} \mathrm{d} u \end{eqnarray} $$ Esta última integral es cero para impar $n$ ya que es la integral de una función impar sobre una recta real. Así pues, consideremos $$ \begin{eqnarray} && \int_{-\infty}^\infty \frac{1}{\sqrt{2\pi} } u^{2n} \mathrm{e}^{-\frac{u^2}{2}} \mathrm{d} u = 2 \int_{0}^\infty \frac{1}{\sqrt{2\pi} } u^{2n} \mathrm{e}^{-\frac{u^2}{2}} \mathrm{d} u \\ && \stackrel{u=\sqrt{2 w}}{=} \frac{2}{\sqrt{2\pi}} \int_0^\infty (2 w)^n \mathrm{e}^{-w} \frac{\mathrm{d} w }{\sqrt{2 w}} = \frac{2^n}{\sqrt{\pi}} \int_0^\infty w^{n-1/2} \mathrm{e}^{-w} \mathrm{d} w = \frac{2^n}{\sqrt{\pi}} \Gamma\left(n+\frac{1}{2}\right) \end{eqnarray} $$ donde $\Gamma(x)$ representa la de Euler Función gamma . Utilizando su propiedades obtenemos $$ \hat{m}_{2n} = \sigma^{2n} (2n-1)!! \qquad\qquad \hat{m}_{2n+1} = 0 $$

1 votos

Sería tan amable de explicar esto un poco más, por favor: Esta última integral es nula para impar n como integral de funciones pares e impar sobre una recta real.

6voto

grand_chat Puntos 4103

Si $X\sim N(\mu,\sigma^2)$ entonces el $k$ el momento central $E[(X-\mu)^k]$ es el mismo que el $k$ momento $E(Y^k)$ de $Y\sim N(0,\sigma^2)$ .

Para $Y\sim N(0,\sigma^2)$ la función generadora de momentos es $^\color{red}a$ : $$E(e^{tY})=e^{t^2\sigma^2/2}.\tag1$$ Uno de los usos de la función generadora de momentos es, por ejemplo, generar momentos. Se puede hacer esto expandiendo ambos lados de (1) como series de potencias en $t$ y luego los coeficientes de coincidencia. Esto se hace fácilmente para la distribución normal: Usando $\displaystyle e^x=\sum_\limits{k=0}^\infty \frac {x^k}{k!}$ el LHS de (1) se expande como $$ E(e^{tY})=E\left(\sum_{k=0}^\infty \frac{(tY)^k}{k!}\right)=\sum_{k=0}^\infty\frac{E(Y^k)}{k!}t^k\tag2 $$ mientras que el lado derecho se expande como $$ e^{t^2\sigma^2/2}=\sum_{k=0}^\infty \frac {(t^2\sigma^2/2)^k}{k!}=\sum_{k=0}^\infty\frac{\sigma^{2k}}{k!2^k}t^{2k}.\tag3 $$ Comparando los coeficientes de las potencias similares de $t$ en (2) y (3), vemos:

  • Si $k$ es impar, entonces $E(Y^k)=0$ .

  • Si $k$ es incluso, digamos $k=2n$ entonces $\displaystyle\frac{E(Y^{2n})}{(2n)!}$ que es el coeficiente de $t^{2n}$ en (2), es igual al coeficiente de $t^{2n}$ en (3), que es $\displaystyle\frac{\sigma^{2n}}{n!2^n}$ . En otras palabras: $$E(Y^{2n})=\frac{(2n)!}{n!2^n}\sigma^{2n}.\tag4 $$ Utilizando $n!2^n=2(n)\cdot 2(n-1)\cdots2(1)=(2n)\cdot(2n-2)\cdots(2)$ podemos reescribir (4) como $$E(Y^{2n})=(2n-1)!!\,\sigma^{2n}.\tag5 $$


$\color{red}a:$ Si $Z$ tiene una distribución normal estándar, entonces su función generadora de momentos es

$$E(e^{tZ})=\int e^{tz}\frac1{\sqrt{2\pi}}e^{-\frac12z^2}\,dz=\int\frac1{\sqrt{2\pi}}e^{-\frac12(z^2-2tz)}dz=e^{t^2/2}\underbrace{ \int\frac1{\sqrt{2\pi}}e^{-\frac12(z-t)^2}dz }_{1}=e^{t^2/2}.$$

Si $X\sim N(\mu,\sigma^2)$ entonces $X$ se distribuye como $\mu+\sigma Z$ por lo que la función generadora de momentos de $X$ es $$E(e^{tX})=E(e^{t(\mu +\sigma Z)})=e^{t\mu} E(e^{t\sigma Z}) = e^{t\mu+(t\sigma)^2/2}.$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X