7 votos

Invertir la desigualdad de Markov para las variables aleatorias no negativas sin límites

Necesito reducir la probabilidad de la cola de una variable aleatoria no negativa. Tengo un límite inferior en su valor esperado. Soy consciente de la desigualdad de Markov que hace el trabajo cuando la variable aleatoria está limitada por encima. Desafortunadamente ese no es mi caso.

¿Existe alguna otra desigualdad que pueda serme útil a este respecto?

gracias

NR

0 votos

Quizá puedas dar la distribución real que te interesa.

0 votos

Para cualquier expectativa finita dada, no importa lo grande que sea, es posible construir una v.r. positiva acotada con dicha expectativa, es decir, no hay límites inferiores generales para la probabilidad de cola. El hecho de que su v.r. no esté acotada lo podemos tener en cuenta fácilmente construyendo v.r. acotadas y añadiéndoles v.r. positivas no acotadas con probabilidad de cola tan pequeña como queramos para el contraejemplo

0 votos

@cardinal : Intento demostrar que un conjunto de k variables aleatorias chi cuadrado no centrales son mayores que un umbral (tau) con alta probabilidad. He conseguido acotar a la baja el valor esperado del mínimo de las variables. Entonces, algo como la desigualdad de markov inversa me vendría bien, siempre que las variables estén acotadas.

13voto

Did Puntos 1

Quieres un límite inferior de la probabilidad de $[X\gt x]$ por lo tanto un límite superior de la probabilidad del suceso $A=[X\leqslant x]$ . Como ya han explicado otros, hay pocas esperanzas de alcanzar tal límite dependiendo de $\mathrm E(X)$ lo que sería válido para toda variable aleatoria no negativa $X$ .

Sin embargo, para toda función acotada decreciente $u$ , $A=[u(X)\geqslant u(x)]$ por lo que la desigualdad de Markov da como resultado $$ \mathrm P(A)\leqslant u(x)^{-1}\mathrm E(u(X)). $$ Dos casos frecuentes son $$u(x)=\mathrm e^{-tx}$$ y $$u(x)=\frac1{1+tx}$$ para algún positivo $t$ relacionado con Laplace y Stieltjes respectivamente. En ambos casos, se puede elegir el valor del parámetro $t$ que proporciona un límite superior óptimo o casi óptimo.

El resultado es $$ \mathrm P(X\gt x)\geqslant 1-u(x)^{-1}\mathrm E(u(X)). $$ Una consecuencia sencilla es el hecho de que, para cada $s$ (y para $s=0$ siempre que $1/X$ es integrable), $$ \mathrm P(X\gt x)\geqslant \mathrm E\left(\frac{X-x}{s+X}\right). $$

0 votos

Desde $1-u(x)^{-1}E[u(X)] \le 1-e^{t(\mu-x)}$ (en el primer caso) parece ser menos eficaz para $t\ge \mu$ . ¿Conoces alguna forma de obtener un límite inferior en ese caso, también basado en $E[e^{-tX}]$ ?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X