21 votos

¿Cómo podemos acotar la probabilidad de que una variable aleatoria sea máxima?

$\newcommand{\P}{\mathbb{P}}$ Supongamos que tenemos $N$ variables aleatorias independientes $X_1$ , $\ldots$ , $X_n$ con medios finitos $\mu_1 \leq \ldots \leq \mu_N$ y desviaciones $\sigma_1^2$ , $\ldots$ , $\sigma_N^2$ . Busco límites libres de distribución sobre la probabilidad de que cualquier $X_i \neq X_N$ es mayor que todos los demás $X_j$ , $j \neq i$ .

En otras palabras, si por simplicidad asumimos las distribuciones de $X_i$ son continuas (tales que $\P(X_i = X_j) = 0$ ), estoy buscando límites en: $$ \P( X_i = \max_j X_j ) \enspace. $$ Si $N=2$ podemos usar la desigualdad de Chebyshev para obtener: $$ \P(X_1 = \max_j X_j) = \P(X_1 > X_2) \leq \frac{\sigma_1^2 + \sigma_2^2}{\sigma_1^2 + \sigma_2^2 + (\mu_1 - \mu_2)^2} \enspace. $$ Me gustaría encontrar algunos límites sencillos (no necesariamente estrictos) para el general $N$ pero no he sido capaz de encontrar resultados (estéticamente) agradables para el general $N$ .

Tenga en cuenta que no se supone que las variables sean i.i.d. Cualquier sugerencia o referencia a trabajos relacionados será bienvenida.


Actualización: recordar que por suposición, $\mu_j \geq \mu_i$ . A continuación, podemos utilizar el límite anterior para llegar a: $$ \P(X_i = \max_j X_j) \leq \min_{j > i} \frac{\sigma_i^2 + \sigma_j^2}{\sigma_i^2 + \sigma_j^2 + (\mu_j - \mu_i)^2} \leq \frac{\sigma_i^2 + \sigma_N^2}{\sigma_i^2 + \sigma_N^2 + (\mu_N - \mu_i)^2} \enspace. $$ Esto implica: $$ ( \mu_N - \mu_i ) \P( X_i = \max_j X_j ) \leq (\mu_N - \mu_i) \frac{\sigma_i^2 + \sigma_N^2}{\sigma_i^2 + \sigma_N^2 + (\mu_N - \mu_i)^2} \leq \frac{1}{2} \sqrt{ \sigma_i^2 + \sigma_N^2 } \enspace. $$ Esto, a su vez, implica: $$ \sum_{i=1}^N \mu_i \P( X_i = \max_j X_j ) \geq \mu_N - \frac{N}{2} \sqrt{ \sum_{i=1}^{N-1} (\sigma_i^2 + \sigma_N^2) } \enspace. $$ Ahora me pregunto si este límite puede mejorarse a algo que no dependa linealmente de $N$ . Por ejemplo, ¿se cumple lo siguiente? $$ \sum_{i=1}^N \mu_i \P( X_i = \max_j X_j ) \geq \mu_N - \sqrt{ \sum_{i=1}^N \sigma_i^2 } \enspace? $$ Y si no, ¿cuál podría ser un contraejemplo?

1voto

user164061 Puntos 281

Puedes utilizar la desigualdad multivariante de Chebyshev.

Caso de dos variables

Para una sola situación, $X_1$ vs $X_2$ , llego a la misma situación que el comentario de Jochen del 4 nov 2016

1) Si $\mu_1 < \mu_2$ entonces $ P(X_1>X_2) \leq (\sigma_1^2 + \sigma_2^2)/(\mu_1-\mu_2)^2 $

(y también me pregunto sobre su derivación)

Derivación de la ecuación 1

  • utilizando la nueva variable $X_1-X_2$
  • transformándola de forma que tenga la media a cero
  • tomando el valor absoluto
  • aplicando la desigualdad de Chebyshev

\begin{array} \\ P \left( X_1 > X_2 \right) &= P \left( X_1 - X_2 > 0 \right)\\ &= P\left( X_1 - X_2 - (\mu_1 - \mu_2) > - (\mu_1 - \mu_2)\right) \\ &\leq P\left( \vert X_1 - X_2 - (\mu_1 - \mu_2) \vert > \mu_2 - \mu_1\right) \\ &\leq \frac{\sigma_{(X_1-X_2- (\mu_1 - \mu_2))}^2}{(\mu_2 - \mu_1)^2} = \frac{\sigma_{X_1}^2+\sigma_{X_2}^2}{(\mu_2 - \mu_1)^2}\\ \end{array}

Caso multivariante

La desigualdad de la ecuación (1) puede convertirse en un caso multivariante aplicándola a múltiples variables transformadas $(X_n-X_i)$ para cada $i<n$ (nótese que están correlacionados).

Una solución a este problema (multivariante y correlacionado) ha sido descrita por I. Olkin y J. W. Pratt. A Multivariate Tchebycheff Inequality' en Annals of Mathematical Statistics, volumen 29, páginas 226-234. http://projecteuclid.org/euclid.aoms/1177706720

Obsérvese el teorema 2.3

$P(\vert y_i \vert \geq k_i \sigma_i \text{ for some } i) = P(\vert x_i \vert \geq 1 \text{ for some } i) \leq \frac{(\sqrt{u} + \sqrt{(pt-u)(p-1)})^2}{p^2}$

en el que $p$ el número de variables, $t=\sum k_i^{-2}$ y $u=\sum \rho_{ij}/(k_ik_j)$ .

El teorema 3.6 proporciona un límite más estricto, pero es menos fácil de calcular.

Editar

Se puede encontrar un límite más nítido utilizando la función desigualdad multivariante de Cantelli . Esa desigualdad es del tipo que utilizabas antes y te proporcionaba el límite $(\sigma_1^2 + \sigma_2^2)/(\sigma_1^2 + \sigma_2^2 + (\mu_1-\mu_2)^2)$ que es más nítida que $(\sigma_1^2 + \sigma_2^2)/(\mu_1-\mu_2)^2$ .

No me he tomado el tiempo de estudiar el artículo entero, pero de todas formas, puedes encontrar una solución aquí:

A. W. Marshall and I. Olkin 'A One-Sided Inequality of the Chebyshev Type' in Anales de Estadística Matemática volumen 31 pp. 488-491 https://projecteuclid.org/euclid.aoms/1177705913

(Nota posterior: Esta desigualdad es para correlaciones iguales y no ayuda suficiente. Pero de todos modos su problema, para encontrar el límite más agudo, es igual a la, más general, multivariante desigualdad de Cantelli. Me sorprendería que la solución no existiera)

-1voto

Luigi Puntos 18

He encontrado un teorema que podría ayudarte e intentaré ajustarlo a tus necesidades. Supongamos que usted tiene:

$$exp(t \cdot \mathbf{E}(\underset{1 \leq i \leq n}{max}X_{i}))$$

Entonces por la desigualdad de Jensen (ya que exp(.) es una función convexa), obtenemos:

$$exp(t \cdot \mathbf{E}(\underset{1 \leq i \leq n}{max}X_{i})) \leq \mathbf{E}(exp( t \cdot \underset{1 \leq i \leq n}{max}X_{i})) = \mathbf{E}( \underset{1 \leq i \leq n}{max} \text{ }exp( t \cdot X_{i})) \leq \sum_{i=1}^{n} \mathbf{E} (exp(t \cdot X_{i}) $$

Ahora para $exp(t \cdot X_{i} $ tienes que introducir cualquiera que sea la función generadora de momentos de tu variable aleatoria $X_{i}$ es (ya que es sólo la definición del mgf). Entonces, después de hacerlo (y potencialmente simplificar su término), se toma este término y tomar el logaritmo y dividir por él por t de modo que se obtiene una declaración sobre el término $\mathbf{E}(\underset{1 \leq i \leq n}{max}X_{i})$ . Entonces se puede elegir t con algún valor arbitrario (lo mejor es que el término sea pequeño para que el límite sea ajustado).

Entonces, tienes una afirmación sobre el valor esperado del máximo sobre n rvs. Para obtener ahora una afirmación sobre la probabilidad de que el máximo de esos rv se desvíe de este valor esperado, puede utilizar la desigualdad de Markov (suponiendo que su rv es no negativo) u otro rv más específico, que se aplique a su rv particular.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X