Supongamos que tenemos una variable aleatoria no negativa $\tilde{\theta}$ tal que $\mathbb{E}\tilde{\theta} = a > 0$ con varianza finita $\sigma^2$ . $\tilde{\theta}$ puede tomar valores de $0$ a $\overline{\theta} > a$ donde $\overline{\theta}$ puede ser infinita.
Sea la FCD de la variable aleatoria dada por $F(\theta) := \Pr\{\tilde{\theta} \leq \theta\}$ con una función de densidad estrictamente positiva $f(\theta) > 0$ en el interior de su soporte $[0, \overline{\theta}]$ . Para simplificar, podemos suponer que $f(\theta)$ es continua y diferenciable en todas partes.
A modo de ejemplo, $\tilde{\theta}$ podría extraerse de una distribución log-normal.
Mi pregunta es la siguiente Dada la configuración descrita, ¿podemos idear un límite inferior para $\max_{\theta} \theta f(\theta)$ de la variable aleatoria $\tilde{\theta}$ ?
Hasta ahora, sólo tengo un enfoque parcial: Si la varianza de $\tilde{\theta}$ es suficientemente pequeña, podemos emplear la desigualdad de Chebyshev, que nos dice que si una variable aleatoria con media $a$ tiene una varianza finita $\sigma^2$ al menos $1 - \frac{1}{k^2}$ de su masa de probabilidad debe caer en el rango $[a - k \sigma, a + k \sigma]$ para $k \geq 1$ .
Por lo tanto, para $\sigma < a$ existen valores de $k > 1$ que nos dan un límite inferior no trivial para la masa de probabilidad en un intervalo alrededor de $a$ que no abarca el cero.
En concreto, puesto que para $k > 1$ al menos $1 - \frac{1}{k^2}$ de la masa de probabilidad de $\tilde{\theta}$ se sitúa en el intervalo $[a - k \sigma, a + k \sigma]$ la densidad media en este intervalo debe ser como mínimo de $\frac{1 - \frac{1}{k^2}}{2k\sigma}$ .
Por lo tanto, para $k \in (1, \frac{a}{\sigma})$ podemos deducir que
$max_{\theta}\ \theta f(\theta) \geq (a-k\sigma)\left(\frac{1 - \frac{1}{k^2}}{2k\sigma}\right)$ .
Mi pregunta es ahora: ¿Podemos hacer más? Y lo que es más importante, ¿podemos decir algo para una varianza arbitraria $\sigma^2$ en particular si $\overline{\theta}$ ¿es infinito?
Muchas gracias de antemano.