4 votos

Muestre que$\frac {E[Xg(X)]}{E[g(X)]} \ge E[X]$ cuando$g$ estrictamente monótono aumenta

Sea $g:\mathbb R \to (0,\infty), X$ la variable aleatoria de valor real y $g(X) \in \mathcal L^2$ y $g$ estrictamente monótono aumentando.

Mostrar, que $\frac {E[Xg(X)]}{E[g(X)]} \ge E[X]$

Intenté algo con los valores esperados y su correlación con la covarianza, pero no obtengo el resultado final.

1voto

Sandeep Silwal Puntos 3962

Este es un caso de una desigualdad más general.

Sugerencia: deje que $f$ y $g$ sean funciones que aumentan de manera monotónica. Deje que $X_1, X_2$ sea iid copias de $X$ y considere el signo de $$ (g(X_1)-g(X_2))(f(X_1)-f(X_2)). $ $

1voto

user10354138 Puntos 1302

Dado que (la identidad y) $g$ aumenta estrictamente, la covarianza de $X$ y $g(X)$ no es negativa . Por lo tanto, $$ 0 \ leq \ operatorname {Cov} (X, g (X)) = \ mathbb {E} [Xg (X)] - \ mathbb {E} [g (X)] \ mathbb {E} X $ $ y podemos dividir por $\mathbb{E}[g(X)]>0$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X