20 votos

¿Cuál es el valor esperado del logaritmo de la distribución Gamma?

Si el valor esperado de $\mathsf{Gamma}(\alpha, \beta)$ es $\frac{\alpha}{\beta}$ ¿Cuál es el valor esperado de $\log(\mathsf{Gamma}(\alpha, \beta))$ ? ¿Se puede calcular analíticamente?

La parametrización que estoy utilizando es shape-rate.

4 votos

Si $X \sim \text{Gamma}(a,b)$ , entonces según mathStatica/Mathematica, $E[ \log(X) ] = \log(b) $ + PolyGamma[a], donde PolyGamma denota la función digamma

1 votos

Debo añadir que no proporcionas la forma pdf de tu variable Gamma, y como informas que la media es $\alpha/\beta$ (mientras que para mí sería $a b$ Parece que estás usando una notación diferente a la mía, donde tu $\beta= 1/b$

0 votos

Cierto, lo siento. La parametrización que estoy utilizando es la tasa de forma. ${\displaystyle {\frac {\beta ^{\alpha }}{\Gamma (\alpha )}}x^{\alpha -1}e^{-\beta x}}$ Intentaré encontrarlo para esta parametrización. ¿Podría sugerir la consulta para Mathematica/WolframAlpha?

29voto

jldugger Puntos 7490

Ésta (quizá sorprendentemente) puede hacerse con fáciles operaciones elementales (empleando el truco favorito de Richard Feynman de diferenciar bajo el signo integral con respecto a un parámetro).


Suponemos que $X$ tiene un $\Gamma(\alpha,\beta)$ y queremos encontrar la expectativa de $Y=\log(X).$ En primer lugar, porque $\beta$ es un parámetro de escala, su efecto será turno el logaritmo por $\log\beta.$ (Si utiliza $\beta$ como tasa como en la pregunta, desplazará el logaritmo en $-\log\beta.$ ) Esto nos permite trabajar con el caso $\beta=1.$

Tras esta simplificación, el elemento de probabilidad de $X$ es

$$f_X(x) = \frac{1}{\Gamma(\alpha)} x^\alpha e^{-x} \frac{\mathrm{d}x}{x}$$

donde $\Gamma(\alpha)$ es la constante de normalización

$$\Gamma(\alpha) = \int_0^\infty x^\alpha e^{-x} \frac{\mathrm{d}x}{x}.$$

Sustituyendo $x=e^y,$ lo que implica $\mathrm{d}x/x = \mathrm{d}y,$ da el elemento de probabilidad de $Y$ ,

$$f_Y(y) = \frac{1}{\Gamma(\alpha)} e^{\alpha y - e^y} \mathrm{d}y.$$

Los posibles valores de $Y$ ahora abarcan todos los números reales $\mathbb{R}.$

Porque $f_Y$ debe integrarse a la unidad, obtenemos (trivialmente)

$$\Gamma(\alpha) = \int_\mathbb{R} e^{\alpha y - e^y} \mathrm{d}y.\tag{1}$$

Aviso $f_Y(y)$ es una función diferenciable de $\alpha.$ Un cálculo sencillo da como resultado

$$\frac{\mathrm{d}}{\mathrm{d}\alpha}e^{\alpha y - e^y} \mathrm{d}y = y\, e^{\alpha y - e^y} \mathrm{d}y = \Gamma(\alpha) y\,f_Y(y).$$

El siguiente paso aprovecha la relación que se obtiene al dividir ambos lados de esta identidad por $\Gamma(\alpha),$ exponiendo así el propio objeto que necesitamos integrar para encontrar la expectativa; a saber, $y f_Y(y):$

$$\eqalign{ \mathbb{E}(Y) &= \int_\mathbb{R} y\, f_Y(y) = \frac{1}{\Gamma(\alpha)} \int_\mathbb{R} \frac{\mathrm{d}}{\mathrm{d}\alpha}e^{\alpha y - e^y} \mathrm{d}y \\ &= \frac{1}{\Gamma(\alpha)} \frac{\mathrm{d}}{\mathrm{d}\alpha}\int_\mathbb{R} e^{\alpha y - e^y} \mathrm{d}y\\ &= \frac{1}{\Gamma(\alpha)} \frac{\mathrm{d}}{\mathrm{d}\alpha}\Gamma(\alpha)\\ &= \frac{\mathrm{d}}{\mathrm{d}\alpha}\log\Gamma(\alpha)\\ &=\psi(\alpha), }$$

la derivada logarítmica de la función gamma (también conocida como " poligamma "). La integral se calculó utilizando la identidad $(1).$

Reintroducir el factor $\beta$ muestra que el resultado general es

$$\mathbb{E}(\log(X)) = \log\beta + \psi(\alpha)$$

para una parametrización de escala (donde la función de densidad depende de $x/\beta$ ) o

$$\mathbb{E}(\log(X)) = -\log\beta + \psi(\alpha)$$

para una parametrización de la tasa (donde la función de densidad depende de $x\beta$ ).

0 votos

¿Con la función poligamma te refieres a que el orden (por ejemplo, 0,1) sea un digamma (como señaló @wolfies), trigamma?

1 votos

@Stefano Me refiero a la derivada logarítmica de gamma, como se ha dicho. Eso significa $\psi(z) = \Gamma^\prime(z)/\Gamma(z).$

1 votos

@whuber: Gracias, he añadido tu prueba aquí .

23voto

Andre Miller Puntos 182

La respuesta de @whuber es bastante buena; esencialmente replantearé su respuesta en una forma más general que conecta (en mi opinión) mejor con la teoría estadística, y que deja claro el poder de la técnica global.

Consideremos una familia de distribuciones $\{F_\theta : \theta \in \Theta\}$ que constituyen una familia exponencial , lo que significa que admiten una densidad $$ f_\theta(x) = \exp\left\{s(x)\theta - A(\theta) + h(x)\right\} $$ con respecto a alguna medida dominante común (normalmente, la medida de Lebesgue o de recuento). Diferenciando ambos lados de
$$ \int f_\theta(x) \ dx = 1 $$ con respecto a $\theta$ llegamos a la ecuación de puntuación $$ \int f'_\theta(x) = \int \frac{f'_\theta(x)}{f_\theta(x)} f_\theta(x) = \int u_\theta(x) \, f_\theta(x) \ dx = 0 \tag{$ \N - Puñal $} $$ donde $u_\theta(x) = \frac d {d\theta} \log f_\theta(x)$ es el función de puntuación y hemos definido $f'_\theta(x) = \frac{d}{d\theta} f_\theta(x)$ . En el caso de una familia exponencial, tenemos $$ u_\theta(x) = s(x) - A'(\theta) $$ donde $A'(\theta) = \frac d {d\theta} A(\theta)$ Esto es lo que a veces se llama el función cumulante ya que evidentemente está muy relacionada con la función generadora de cúmulos. Ahora se deduce de $(\dagger)$ que $E_\theta[s(X)] = A'(\theta)$ .

Ahora mostramos que esto nos ayuda a calcular la expectativa requerida. Podemos escribir la densidad gamma con $\beta$ como una familia exponencial $$ f_\theta(x) = \frac{\beta^\alpha}{\Gamma(\alpha)} x^{\alpha-1} e^{-\beta x} = \exp\left\{\log(x) \alpha + \alpha \log \beta - \log \Gamma(\alpha) - \beta x \right\}. $$ Se trata de una familia exponencial en $\alpha$ solo con $s(x) = \log x$ y $A(\alpha) = \log \Gamma(\alpha) - \alpha \log \beta$ . Ahora se deduce inmediatamente al calcular $\frac d {d\alpha} A(\alpha)$ que $$ E[\log X] = \psi(\alpha) - \log \beta. $$

5 votos

+1 Gracias por señalar esta bonita generalización.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X