6 votos

Desigualdad con respecto a la expectativa de la función de una variable aleatoria

Supongamos $f(x;\alpha,y)$ es el pdf (con la no-negativo de apoyo) para una r.v. $X$. $\alpha$ es un vector de unos parámetros fijos. Supongamos la siguiente propiedad tiene \begin{equation} [\mathbb{E}(X)](y) \ \textrm{is a decreasing function of} \ y. \end{equation} Si tomamos $y_1 <y_2$, bajo qué condiciones podemos decir que \begin{equation} \mathbb{E}(e^{-aX_1}) \leq \mathbb{E}(e^{-aX_2}) \end{equation} donde $X_1$, $X_2$ son variables aleatorias con archivos pdf $f(x;y_1)$, $f(x;y_2)$ respectivamente y $a$ es una constante positiva?

En otras palabras, cuando sabemos que $\mathbb{E}(X_1) \geq \mathbb{E}(X_2)$, cuando también es cierto que $\mathbb{E}(e^{-aX_1}) \leq \mathbb{E}(e^{-aX_2})$?

Parece que la Desigualdad de Jensen debe ser útil, pero no me consigue todo el camino.

Bien podría ser que necesitamos más información acerca de cómo los cambios en la $y$ traducir a los cambios en los momentos de orden superior, pero me gustaría mantener las restricciones en $f$ lo más flexible posible.

2voto

Paulius Puntos 369

No sé cómo responder a esto en general, pero aquí hay algo. Tal vez esto le dará a usted o a alguien más, algunas ideas si nada.

Supongamos que $X$ pertenece a la de un parámetro exponencial de la familia natural del parámetro $\theta$, por lo que $$ f(x; \theta) = \exp \left( x \theta \kappa(\theta) + c(x) \right) $$ para algunas funciones $\kappa$$c$. Las expectativas de $E(e^{-aX})$ que usted está considerando son momento de generación de funciones evaluadas en $t = -a$ así que vamos a considerar la MGF $M_{X_\theta}(t)$$X_\theta$, de donde yo soy suscripción con $\theta$ a destacar la dependencia de la $\theta$. Ya que estamos variando $\theta$ tan sólo voy a escribir $M_\theta$ en lugar de $M_{X_\theta}$. Se puede demostrar que $$ M_\theta(t) = \exp \left( \kappa(t + \theta) - \kappa(\theta) \right). $$

Desde $e^a \geq e^b \implies a \geq b$ podemos comparar $\log M_{\theta_1}(t) = \kappa(t + \theta_1) - \kappa(\theta_1)$$\log M_{\theta_2}(t) = \kappa(t + \theta_2) - \kappa(\theta_2)$.

Tenga en cuenta que $$ \frac{\log M_{\theta_1}(t)}{\log M_{\theta_2}(t)} = \frac{\kappa(t + \theta_1) - \kappa(\theta_1)}{\kappa(t + \theta_2) - \kappa(\theta_2)} = \frac{{1 \over t}}{{1 \over t}} \times \frac{\kappa(t + \theta_1) - \kappa(\theta_1)}{\kappa(t + \theta_2) - \kappa(\theta_2)} \approx \frac{\kappa'(\theta_1)}{\kappa'(\theta_2)} $$ si $t$ es pequeña.

Sabemos que $E(X_\theta) = \kappa'(\theta)$, y si hacemos la suposición de que $E(X_\theta)$ es monótonamente decreciente en $\theta$

$$ \theta_1 \geq \theta_2 \implica \frac{\kappa'(\theta_1)}{\kappa'(\theta_2)} = \frac{E(X_1)}{E(X_2)} \leq 1. $$

Esto sugiere que para esta particular familia de distribuciones de al $t$ es pequeña, tenemos que $M_{\theta_1}(t) \leq M_{\theta_2}(t)$.

Nada de esto tiene sentido si $E(e^{tX})$ no es finito por lo que queremos limitarnos a las distribuciones donde la MGF converge. Aquí se dice que "[e]muy de distribución de la posesión de un momento de generación de la función es un miembro de una exponencial natural de la familia" por lo que parece que este resultado se aplica en realidad a una parte significativa de la 1 de parámetros de las distribuciones que podríamos atención acerca de.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X