13 votos

Deducir una distribución de probabilidad a partir de su función generadora de momentos

Es bastante trivial obtener una función generadora de momentos a partir de una p.d.f. (siempre que etxf(x) no sea demasiado difícil de evaluar), pero dado que las funciones generadoras de momentos determinan de forma única una función de distribución de probabilidad, ¿hay alguna manera de "generar" de nuevo la p.d.f a partir de la m.g.f.?

Editar: Estoy hablando de una distribución discreta.

0 votos

¿Estás tratando con distribuciones discretas? En general, una distribución de probabilidad no necesita tener una función de densidad de probabilidad (p.d.f.).

9voto

Siméon Puntos 8691

La pregunta es invertir una transformación Laplace/Fourier. Tomo el ejemplo de una distribución discreta f(n) en los números naturales con función generadora de momentos M(t)=n=0f(n)ent con radio de convergencia R1. La inversión de Fourier aquí es f(n)=12π02πM(iθ)einθdθ

Si prefieres mantenerte en el mundo real, hay una interesante fórmula debida a Post.

Una fórmula relacionada sería: f(n)=dndtnM(logt)|t=0

0 votos

No hemos aprendido nada sobre las transformadas de Fourier.

0 votos

@user54609 Si estabas en la teoría elemental de la probabilidad, no había forma de hacerlo. Tenías que reconocer una función generadora de momentos dada como la función generadora de momentos de alguna variable aleatoria.

0 votos

Siméon, ¿es el Post lo mismo que este?

6voto

lucianopaz Puntos 151

Sé que esta pregunta es antigua, pero todas las respuestas proporcionadas hasta ahora solo trataron los casos de variables continuas. En la edición, @user54609 afirma que estaba preguntando cómo obtener la distribución de probabilidad de una variable aleatoria discreta, y para ese caso, la respuesta es sorprendentemente simple.

La única diferencia es que es más fácil hacer lo que quieres usando la función característica G(s), en lugar de la función generadora de momentos E[etx]. Es fácil convertir entre ellos al observar la definición de $G(s):

G(s)=n=0+p(n)sn donde n es la variable aleatoria discreta, y p(n) es su distribución de probabilidad. Por lo tanto, puedes convertir entre G y la f.g.m. estableciendo s=et.

Ahora, supongamos que conocemos G(s) pero no p(n), y queremos averiguar la forma funcional de p(n) usando lo que sabemos sobre G(s). La forma de hacerlo es evaluando las derivadas de G(s) en s=0 como:

p(n)=1n!dnG(s)dsn|s=0

Por ejemplo, la función característica de una variable aleatoria distribuida de forma Poisson es G(s)=eλ(s1). Podemos recuperar la distribución de probabilidad de la variable aleatoria de Poisson n como

1n!dnG(s)dsn|s=0=λnn!e(s1)λ|s=0=λnn!eλ=p(n)

Puedes probar esto con otros ejemplos de distribuciones, como la Binomial, cuya función característica es G(s)=[1+(s1)p]N para ganar confianza en el método, pero funciona para todas las variables aleatorias discretas.

3voto

Darko Z Puntos 16570

Sea M(g)(s)=0xs1g(x)dx la transformada de Mellin; entonces la función generadora de momentos de una p.d.f suficientemente suave f está dada por M(f(log(x))(s);

así que dada una función generadora de momentos lo suficientemente buena h(s)=E[esX]=esxf(x)dx, recuperamos f como f(x)=M1(h(s))(ex) donde M1 está dada por el teorema de inversión de Mellin: M1h(x)=12πicic+ixsh(s)ds para un número real apropiado c, donde la integral se entiende que es a lo largo de una línea en C.

0 votos

No hemos aprendido nada sobre transformadas de Mellin. :P O cómo trabajar con números complejos de esa manera.

1 votos

@EricDong No estoy seguro de que puedas hacerlo de una manera significativamente diferente. Probablemente lo mejor es usar una tabla.

1 votos

Esto debería funcionar para funciones discretas apropiadas f ya que la continuidad por partes es suficiente

2voto

wryrych Puntos 158

Sí, puedes. Primero, convierte tu mgf en una función característica (es decir, reemplaza tit). Luego, invierte la función característica para obtener la pdf utilizando una transformada de Fourier inversa.

0voto

mikemurf22 Puntos 817

El logaritmo de la función generadora de momentos es conocido como la función generadora de cumulantes, y puede ser utilizada para obtener aproximaciones bastante buenas de la función de densidad original (o función de masa de probabilidad) a través de lo que se conoce como aproximación de la espícula, que puede ser sorprendentemente buena. Para una exposición y ejemplos consulte https://stats.stackexchange.com/questions/191492/how-does-saddlepoint-approximation-work/191781#191781

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X