7 votos

¿Probabilidad de que la variable aleatoria máxima (Levy Stable) de una lista sea mayor que la suma del resto?

Publicación original en Mathoverflow ici .

Dada una lista de ejemplares idénticos y distribuidos independientemente Estable Levy variables aleatorias, $(X_0, X_1, \dots, X_{n-1})$ ¿cuál es la probabilidad de que el máximo supere la suma del resto?

$$ M = \text{Max}(X_0, X_1, \dots, X_{n-1}) $$ $$ \text{Pr}( M > \sum_{j=0}^{n-1} X_j - M ) $$

Donde, en Nolan de la notación, $X_j \in S(\alpha, \beta=1, \gamma, \delta=0 ; 0)$ , donde $\alpha$ es el exponente crítico, $\beta$ es la inclinación, $\gamma$ es el parámetro de escala y $\delta$ es el desplazamiento. Para simplificar, he tomado el parámetro de inclinación, $\beta$ sea 1 (máxima inclinación hacia la derecha) y $\delta=0$ para que todo tenga su modo centrado en un intervalo cercano a 0.

De las simulaciones numéricas se desprende que para la región de $0 < \alpha < 1$ la probabilidad converge a una constante, independientemente de $n$ o $\gamma$ . A continuación se muestra un gráfico de esta región para $n=500$ , $0< \alpha < 1$ donde cada punto representa el resultado de 10.000 sorteos aleatorios. El gráfico es exactamente igual para $n=100, 200, 300$ y $400$ .

alt text

Para $1 < \alpha < 2$ parece que va como $O(1/n^{\alpha - 1})$ (¿tal vez?) independientemente de $n$ o $\gamma$ . A continuación se muestra un gráfico de la probabilidad de $\alpha \in (1.125, 1.3125)$ en función de $n$ . Tenga en cuenta que es un gráfico logarítmico y he proporcionado los gráficos $1/x^{.125}$ y $1/x^{.3125}$ como referencia. Es difícil distinguirlos en el gráfico a menos que los alinees, pero el ajuste de cada uno de ellos está un poco fuera de lugar, y parece que la pendiente (log-log) de los datos reales es más pronunciada que mi estimación para cada uno de ellos. Cada punto representa 10.000 iteraciones.

alt text

Para $\alpha=1$ no está claro (para mí) lo que sucede, pero parece ser una función decreciente que depende de $n$ y $\gamma$ .

He tratado de hacer un argumento heurístico a la en forma de:

$$\text{Pr}( M > \sum_{j=0}^{n-1} X_j - M) \le n \text{Pr}( X_0 - \sum_{j=1}^{n-1} X_j > 0 )$$

A continuación, utilizando las fórmulas proporcionadas por Nolan (pág. 27) para los parámetros de la v.r. implícita $ U = X_0 - \sum_{j=1}^{n-1} X_j$ combinada con la aproximación de la cola:

$$ \text{Pr}( X > x ) \sim \gamma^{\alpha} c_{\alpha} ( 1 + \beta ) x^{-\alpha} $$ $$ c_{\alpha} = \sin( \pi \alpha / 2) \Gamma(\alpha) / \pi $$

pero esto me deja nervioso y un poco insatisfecho.

A modo de comparación, si $X_j$ se tomaran como v.r. uniformes en el intervalo unitario, esta función disminuiría exponencialmente de forma rápida. Imagino que resultados similares son válidos si la $X_j$ 's Gaussian, aunque se agradecería cualquier aclaración al respecto.

Conseguir soluciones de forma cerrada para esto es probablemente imposible, ya que ni siquiera hay una solución de forma cerrada para el pdf de las variables aleatorias de Levy-Stable, pero conseguir límites sobre cuál es la probabilidad sería útil. Apreciaría cualquier ayuda con respecto a cómo analizar este tipo de cuestiones en general, como métodos generales o referencias a otros trabajos en esta área.

Si este problema es elemental, agradecería mucho cualquier referencia a un libro de texto, tutorial o artículo que me ayude a resolver problemas de este tipo.

ACTUALIZACIÓN : George Lowther y Shai Covo han respondido a esta pregunta a continuación. Sólo quería dar algunas imágenes más que comparan sus respuestas con algunos de los experimentos numéricos que hice.

A continuación se muestra la probabilidad de que el elemento máximo sea mayor que el resto para un tamaño de lista de $n=100$ en función de $\alpha$ , $\alpha \in (0,1)$ . Cada punto representa 10.000 simulaciones.

alt text

A continuación se muestran dos gráficos para dos valores de $\alpha \in \{1.53125, 1.875\}$ . Ambos tienen la función $ (2/\pi) \sin(\pi \alpha / 2) \Gamma(\alpha) n (( \tan(\pi \alpha/2) (n^{1/\alpha} - n))^{-\alpha} $ con diferentes prescalares delante de ellos para que se alineen ( $1/4$ y $1/37$ respectivamente) superpuestos como referencia.

alt text alt text

Como señaló correctamente George Lowther, para la relativamente pequeña $n$ que se está considerando aquí, el efecto de la $n^{1/\alpha}$ plazo (cuando $1 < \alpha < 2$ ) no es despreciable y por eso mis gráficos de referencia originales no coincidían con los resultados de las simulaciones. Una vez introducida la aproximación completa, el ajuste es mucho mejor.

Cuando me ponga a ello, intentaré colgar más fotos del caso cuando $\alpha=1$ en función de $n$ y $\gamma$ .

5voto

codeConcussion Puntos 7250

Lo que pides es un caso especial de la distribución conjunta del máximo y la suma de una secuencia de variables aleatorias. El hecho de que las variables sean estables lo simplifica y nos permite calcular la distribución conjunta en el límite a medida que n llega al infinito. Este límite puede describirse en términos de la distribución conjunta del valor de una variable estable Proceso de Lévy en el momento $t=1$ y su tamaño máximo de salto sobre $t\le1$ . Los procesos de Lévy son continuos por la derecha con límites por la izquierda ( cadlag ) y tienen incrementos estacionarios independientes. Los procesos estables de Lévy tienen incrementos con distribuciones estacionarias.

Si $X_i$ cada uno tiene la $\alpha$ -distribución estable denotada por $S(\alpha,\beta,\gamma,\delta)=S(\alpha,\beta,\gamma,\delta;0)$ en el texto que enlaza, entonces la suma $S=\sum_{i=0}^{n-1}X_i$ tiene el $S(\alpha,\beta,n^{1/\alpha}\gamma,\delta_n)$ distribución en la que $$ \delta_n=\begin{cases} n\delta + \gamma\beta\tan\frac{\pi\alpha}{2}(n^{1/\alpha}-n),&\textrm{if }\alpha\not=1,\\ n\delta +\gamma\beta\frac{2}{\pi}n\log n,&\textrm{if }\alpha=1. \end{cases}\qquad\qquad{\rm(1)} $$ Se trata de la ecuación (1.9) de la página 20 de las notas enlazadas. Será útil reescalar la suma para eliminar la dependencia de n. La variable aleatoria $Y=n^{-1/\alpha}(S-\delta_n)$ tiene el $S(\alpha,\beta,\gamma,0)$ (por la Proposición 1.16).

Ahora, para relacionar esto con los procesos de Lévy. Sea $Z_t$ sea el proceso de Lévy con $Z_1\sim Y$ . Podemos tomar $X_i=n^{1/\alpha}(Z_{(i+1)/n}-Z_{i/n})+\delta_n/n$ que será independiente con el requerido $S(\alpha,\beta,\gamma,\delta)$ distribución. De hecho, en este caso tenemos $Z_1=Y$ y $S=n^{1/\alpha}Z_1+\delta_n$ . Escribir $M=\max_iX_i$ y $\Delta Z^*_t$ para el máximo de $\Delta Z_s=Z(s)-Z(s-)$ en $s\le t$ da $n^{-1/\alpha}(M-\delta_n/n)\to\Delta Z^*_1$ a medida que n llega al infinito. Podemos entonces calcular la probabilidad P que está pidiendo para liderar el orden como n se hace grande, $$ \begin{align} P&\equiv\mathbb{P}\left(M > S-M\right)\\ &=\mathbb{P}\left(2n^{-1/\alpha}(M-\delta_n/n) > n^{-1/\alpha}(S-2\delta_n/n)\right)\\ &\sim\mathbb{P}\left(2\Delta Z^*_1 > Z_1+n^{-1/\alpha}\delta_n(1-2/n)\right) \end{align} $$ Así que, $$ P\sim\mathbb{P}\left(2\Delta Z^*_1 - Z_1 > n^{-1/\alpha}\delta_n\right) $$ y el término principal en la asintótica para P están determinados por la distribución de $2\Delta Z^*_1-Z_1$ .

Para $\alpha < 1$ se desprende de (1) que $n^{-1/\alpha}\delta_n\to\gamma\beta\tan\frac{\pi\alpha}{2}$ como n va al infinito, por lo que obtenemos un límite finito y positivo $$ P\to\mathbb{P}\left(2\Delta Z^*_1-Z_1 > \gamma\beta\tan\frac{\pi\alpha}{2}\right) $$ como $n\to\infty$ . La tangente sólo ha aparecido en la expresión aquí debido a la particular parametrización que estamos utilizando. Es un poco más sencillo si reescribimos esto en términos de $\tilde Z_t=Z_t+\gamma\beta t\tan\frac{\pi\alpha}{2}$ . Entonces, para el $\beta=1$ caso que está utilizando, $\tilde Z_t$ tiene soporte $[0,\infty)$ (Lemma 1.10 en el texto enlazado). Esto significa que $\tilde Z$ es un subordinador estable y la probabilidad requerida es $$ P\to\mathbb{P}\left(2\Delta\tilde Z^*_1 > \tilde Z_1\right)=\frac{\sin(\pi\alpha)}{\pi\alpha}. $$ [He sido un poco disimulado aquí, y he sustituido la expresión que Shai Covo dio en su respuesta para $\mathbb{P}(2\Delta\tilde Z^*_1 > \tilde Z_1)$ y simplificado un poco usando Fórmula de reflexión de Euler .]

Por otro lado, si $\alpha > 1$ entonces (1) da $n^{-1/\alpha}\delta_n\sim n^{1-1/\alpha}(\delta-\gamma\beta\tan\frac{\pi\alpha}{2})$ y, si $\alpha=1$ entonces $n^{-1/\alpha}\delta_n\sim\gamma\beta\frac{2}{\pi}\log n$ . En este caso, P tiende a cero a un ritmo que depende de la cola de la función de distribución de $2\Delta Z^*_1-Z_1$ .

También es posible utilizar el Representación de Lévy-Khintchine para calcular la cola de la función de distribución de $2\Delta Z^*_1-Z_1$ . Los saltos de un proceso de Lévy se describen mediante una medida de Lévy $\nu$ sobre los números reales, de modo que los saltos de tamaño pertenecientes a un conjunto $A$ se producen de acuerdo con un Proceso de Poisson de la tasa $\nu(A)$ . Un $\alpha$ -El proceso estable tiene la medida de Lévy $d\nu(x)=c\vert x\vert^{-\alpha-1}\,dx$ , donde $c$ sólo depende del signo de $x$ . Podemos retroceder el valor de $c$ calculando la función característica de $Z_1$ utilizando la fórmula de Lévy-Khintchine (esencialmente la transformada de Fourier de $\nu$ , ver Wikipedia que utiliza W para la medida de Lévy) y comparando con la expresión (1.4) de su texto. Al realizar este cálculo se obtiene $$ d\nu(x)=\pi^{-1}\alpha\gamma^\alpha\sin\frac{\pi\alpha}{2}\Gamma(\alpha)(1+\beta{\rm sign}(x))\vert x\vert^{-\alpha-1}\,dx. $$ El número de saltos de tamaño superior a $x$ tiene una distribución Poisson de tasa $\nu((x,\infty))$ dando, $$ \begin{align}\mathbb{P}(\Delta Z^*_1> x) &= 1-e^{-\nu((x,\infty))}\\ &\sim\nu((x,\infty))\\ &=\pi^{-1}\gamma^\alpha\sin\frac{\pi\alpha}{2}\Gamma(\alpha)(1+\beta)x^{-\alpha}. \end{align}\qquad{\rm(2)} $$ Comparando con su texto enlazado (Teorema 1.12), esto es exactamente lo mismo que la cola de $Z_1$ ¡! Eso es, $\mathbb{P}(\Delta Z^*_1 > x)\sim\mathbb{P}(Z_1 > x)$ . Esto significa que la cola de la distribución se debe enteramente al gran salto ocasional del proceso de Lévy. Esto se corresponde realmente con la experiencia. He representado antes las trayectorias de las muestras del proceso de Cauchy, y se obtienen algunas trayectorias con un único gran salto que ahoga todo el resto del comportamiento. También podemos ver por qué debería ser así. La densidad de la distribución de saltos es subexponencial, proporcional a $\vert x\vert^{-\alpha-1}$ . Así que un gran salto de tamaño $x$ tiene una probabilidad mucho mayor que n pequeños saltos de tamaño $x/n$ . También sugiere que, en su cálculo de $X_i$ las muestras que contribuyen a la probabilidad provienen principalmente del caso en que todas ellas están razonablemente cerca de la media, excepto un extremo (positivo o negativo) $X_i$ .

Así, a partir del argumento anterior, la asíntota principal de la probabilidad P proviene del caso en que $\Delta Z_1^*$ es muy grande en comparación con $Z_1-\Delta Z_1^*$ o cuando el mayor salto negativo $\Delta(-Z)^*_1$ es grande en comparación con $Z_1+\Delta(-Z)^*_1$ . Esto da $$ \begin{align} \mathbb{P}(2\Delta Z^*_1-Z_1 > x) &\sim\mathbb{P}(\Delta Z^*_1 > x) +\mathbb{P}(\Delta (-Z)^*_1 > x)\\ &\sim 2\pi^{-1}\gamma^{\alpha}\sin\frac{\pi\alpha}{2}\Gamma(\alpha)x^{-\alpha}, \end{align} $$ donde he sustituido en (2) Introduciendo la forma asintótica de $x=n^{-1/\alpha}\delta_n$ calculado arriba da $$ P\sim2\pi^{-1}\gamma^{\alpha}\sin\frac{\pi\alpha}{2}\Gamma(\alpha)\left(\delta-\gamma\beta\tan\frac{\pi\alpha}{2}\right)^{-\alpha}n^{1-\alpha} $$ para $\alpha > 1$ . Esto confirma su $O(1/n^{\alpha-1})$ ¡adivinar a partir de la simulación numérica! Además, utilizando $x=n^{-1/\alpha}\delta_n\sim\gamma\beta\frac{2}{\pi}\log n$ para $\alpha=1$ da $$ P\sim\frac{1}{\beta\log n}. $$ Esperemos que todo esto sea correcto, pero no puedo descartar que haya cometido un desliz aritmético por encima. Editar : El límite anterior para $\alpha > 1$ no se ve muy bien. Parece estar ligeramente por encima del gráfico del post original. Sin embargo, incluso para n=1000, no debería estar muy cerca del límite asintótico descrito. Sustituyendo el límite asintótico por $\delta_n$ por su forma exacta efectiva sustituye al $n^{1-\alpha}$ término para P por $(n^{1-1/\alpha}-1)^{-\alpha}$ . Para n=1000 esto duplica aproximadamente el número calculado por lo que, el valor más preciso para $\delta_n$ te aleja de la trama. Algo ha ido mal en alguna parte...

0voto

Mingo Puntos 126

Una idea aproximada.

Sólo considero el caso especial en el que el $X_i$ son rv's positivos tales que, por autosimilaridad, $X_1 + \cdots + X_{n-1}$ es igual en su distribución a $(n-1)^{1/\alpha}X_1$ donde $\alpha$ es el índice asociado. Entonces, parece útil empezar (de forma similar a lo que hiciste arriba) con $$ P = n{\rm P}(X_0 > X_1 + \cdots + X_{n-1}), $$ donde $P$ es la probabilidad del título. Entonces, recordando el argumento de la autosimilitud, una aplicación directa de la ley de la probabilidad total (condicionando a $X_0$ ) da como resultado $$ P = n\int F (s/(n - 1)^{1/\alpha } )f(s){\rm d}s, $$ donde $F$ y $f$ son las funciones de distribución y densidad comunes del $X_i$ respectivamente. Vea si puede continuar desde aquí.

0voto

Mingo Puntos 126

Mi respuesta anterior fue inútil. La nueva respuesta a continuación completa la respuesta de George para el $0 < \alpha < 1$ caso, ilustrado en el primer gráfico anterior.

Para este caso, George proporcionó la aproximación asintótica $P_n \sim {\rm P}(2 \Delta Z^*_1 - Z_1 > 0)$ como $n \to \infty$ , donde $P_n$ es la probabilidad que pedía el PO, $Z = \lbrace Z_t : t \geq 0 \rbrace$ es un proceso de L\'evy estrictamente estable de índice $\alpha$ y $\Delta Z^*_1$ es el mayor salto de $Z$ en el intervalo de tiempo $[0,1]$ . No es fácil obtener ${\rm P}(2 \Delta Z^*_1 - Z_1 > 0)$ de forma cerrada, pero sí es posible, y de hecho se conoce el siguiente resultado más general: $$ {\rm P}\bigg(\frac{{\Delta Z_1^* }}{{Z_1 }} > \frac{1}{{1 + y}}\bigg) = \frac{{y^\alpha }}{{\Gamma (1 - \alpha )\Gamma (1 + \alpha )}}, \;\; y \in [0,1], $$ donde $\Gamma$ es la función gamma. Dejando que $y = 1$ por lo tanto, da $P_n \sim 1/[\Gamma(1 - \alpha) \Gamma(1 + \alpha)]$ . Esta expresión asintótica concuerda muy bien con el gráfico anterior, como he confirmado comprobando varios valores de $\alpha \in (0,1)$ . (Por ejemplo, $\alpha = 1/2$ da $P_n \sim 2/\pi \approx 0.6366$ .)

Una generalización. En lugar de considerar sólo la probabilidad ${\rm P}(M > \sum\nolimits_{i = 0}^{n - 1} {X_i } - M)$ podemos considerar la probabilidad ${\rm P}(M > y^{-1}[\sum\nolimits_{i = 0}^{n - 1} {X_i } - M])$ , $y \in (0,1]$ . En vista de la respuesta de George, esto debería corresponder a la fórmula dada anteriormente para ${\rm P}(\Delta Z_1^* / Z_1 > 1/(1+y))$ . Esto se puede generalizar aún más, en varias direcciones, sobre la base de los resultados conocidos de la literatura (tres referencias útiles en este contexto se indican en alguna parte de los comentarios anteriores/bajos).

EDITAR :

Como observó George, el término $\Gamma(1 - \alpha) \Gamma(1 + \alpha)$ puede simplificarse a $(\pi\alpha) / \sin(\pi\alpha)$ . La primera expresión corresponde a $[\Gamma(1 - \alpha)]^k \Gamma(1 + k \alpha)$ que se incorpora a la fórmula explícita de ${\rm P}(\Delta Z_1^* / Z_1 > 1/(1+y))$ , $y > 0$ de la forma $\sum\nolimits_{k = 1}^{\left\lceil y \right\rceil } {a_k \varphi _k (y)} $ . La función $\varphi _k (y)$ es algo $(k-1)$ -por lo que esta fórmula es muy costosa desde el punto de vista informático para valores moderados de $y$ .

0voto

Eran Medan Puntos 193

Así que $M=\mbox{Max}(X_0,\ldots,X_{n-1})$ entonces lo sabes:

$$\mathbb{P}(M\geq x)=1-F(x)^n$$

con $F(x)$ la distribución acumulativa estable de Levy. Ahora, también tiene

$$\mathbb{P}(M\geq \sum X_i) = \int p(M\geq \sum X_i | \sum X_i = x) p(x) dx$$

Donde $p(x)$ es la función de densidad de las distribuciones estables de Levy. (Ya que por definición las distribuciones estables de Levy son estables bajo la suma de variables aleatorias estables de Levy).

Así que me parece que en principio tienes todos los ingredientes para intentar alguna asintótica, aunque no tengas una fórmula explícita para todas las distribuciones. Quizá puedas probar con algunas para las que existe la fórmula, como las distribuciones Cauchy y normal.

Perdón por la dejadez, sólo intento esbozar un enfoque por ahora.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X