6 votos

Función de una variable aleatoria: expectativa

Dejemos que $\{X_i\}_{i=1}^n$ sea una secuencia de variables aleatorias i.i.d. (es decir, una muestra aleatoria) con pdf:

$$f_X(x) = e^{-(x-\theta)} \, e^{-e^{-(x-\theta)}} · \mathbf{1}_{x\in \mathbf{R}}$$

El objetivo es encontrar la distribución de $T = \sum_{i=1}^n e^{-X_i}$ y también para calcular $\textbf{E}(\log T)$ y $\textbf{V}(\log T)$ .

Algunas reflexiones:

Creo que he encontrado la distribución de $T$ aplicando la transformación $Y = e^{-X}$ . Si no me equivoco, es bastante fácil ver que $Y \sim \textrm{Exponential}(e^{\theta})$ . Por lo tanto, $T = \sum_{i=1}^n Y_i \sim \textrm{Gamma} (n, 1/e^{\theta})$ .

Sin embargo, no consigo encontrar una forma razonable de calcular $\textbf{E}(\log T)$ o $\textbf{V}(\log T)$ . La fórmula de la expectativa de una función de una variable aleatoria conduce a una integral muy complicada y la única alternativa que se me ocurre, que es otra transformación, ¡es aún peor!

5voto

Robert Christie Puntos 7323

Ha determinado correctamente que $Y \sim \rm Exponential(\mathrm{e}^\theta)$ y la distribución determinada de $T$ Así que me concentraré en la computación

$$ \mathbb{E}( \log x, x \sim \rm Gamma(n, \frac{1}{\beta})) $$

La forma más sencilla es calcular $\mathbb{E}( x^s )$ y luego usar $\log(x) = \left. \frac{\mathrm{d}}{\mathrm{d} s} x^s \right\vert_{s=0}$ y $\log^2(x) = \left. \frac{\mathrm{d}^2}{\mathrm{d} s^2} x^s \right\vert_{s=0}$ .

$$ \mathbb{E}( x^s ) = \int_0^\infty x^s \cdot \frac{\beta^{n}}{\Gamma(n)} x^{n-1} \exp(-x \beta) \mathrm{d} x = \int_0^\infty \frac{\beta^{n}}{\Gamma(n)} x^{n + s-1} \exp(-x \beta) \mathrm{d} x = \beta^{-s} \frac{\Gamma(n+s)}{\Gamma(n)} $$

Ahora es fácil de entender:

$$ \mathbb{E}(\log T) = -\theta + \psi(n) \qquad \mathbb{V}(\log T) = \psi^{(1)}(n) $$ donde $\psi(n)$ es función digamma y $\psi^{(1)}(n)$ es su primera derivada.

Añadido : Para facilitar el cálculo de la varianza, hay que tener en cuenta que $\mathbb{V}(\log T) = \left. \frac{ \mathrm{d}^2}{ \mathrm{d}s^2 } \mu^{-s} \mathbb{E}(x^s)\right\vert_{s=0}$ , donde $\log \mu$ es la media de $\log T$ pero $\mu^{-s} \mathbb{E}(x^s) = \frac{\Gamma(n+s)}{\Gamma(n)} \exp(-s \psi(n)) = \exp( 1 + \psi(n) s + \frac{1}{2} \psi^\prime(n) s^2 + o(s^3)) \exp(-s \psi(n))$ . Por lo tanto, $ \mu^{-s} \mathbb{E}(x^s) = \exp(1 + \frac{1}{2} \psi^\prime(n) s^2 + o(s^3)) = 1 + \frac{1}{2} \psi^\prime(n) s^2 + o(s^3)$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X