12 votos

Máximo de una suma de variables aleatorias

Deje $X_1, \dots, X_n$ ser independientes e idénticamente distribuidas variables aleatorias con $E(X_i) = 0$ $$S_k = \sum_{i \leq k} X_i$$

  1. ¿Cuál es la distribución de probabilidad de $M_2 = \max \{ X_1, X_1+X_2 \}$?

Podemos suponer $X_i$ tienen distribución normal ; tenemos que tener en cuenta que el $X_1$ $X_1 + X_2$ no son independientes, es por eso que todos mis intentos de computación $P(S \leq t)$ no.

  1. ¿Cuál es la distribución de probabilidad de $M_3 =\max \{ X_1, X_1+X_2, X_1+X_2+X_3 \}$, y, más en general, de $M_n = \max\limits_{k \le n} {S_k}$ ?

9voto

zhoraster Puntos 5893

A través del telescopio espacial Spitzer de la identidad, es posible encontrar algún tipo de transformación de la distribución de $M_n$. Bueno, no exactamente. El telescopio espacial Spitzer de la identidad consiste en las expresiones $M^+_n = \max_{0\le k\le n} S_k$, donde $S_0 = 0$, $S_k = X_1 + \dots + X_k$, $k\ge 1$. Esto se traduce a la parte positiva de la expresión de la que estás interesado. Pero es posible reducir a la pregunta original, a este, puesto que, como ya se mencionó en las respuestas anteriores, $M_n$ tiene la misma distribución que $X + M_{n-1}^+$, e $X$ es independiente de $M_{n-1}^+$.

Volviendo a la Spitzer de la identidad, se lee $$ \sum_{n=0}^\infty s_n \mathsf E[e^{-\lambda M_n^+}] = \exp\left\{\sum_{n=1}^\infty \frac{s^n}n \mathsf E[e^{-\lambda S_n^+}] \right\}, $$ donde $S_n^+ = \max\{S_n,0\}$.

El lado derecho se puede calcular más o menos explícita, en algunos casos. Por ejemplo, si $X\simeq N(0,\sigma^2)$,$S_n \simeq N(0,\sigma^2 n)$, por lo que $$ \mathsf E[e^{-\lambda S_n}\mathbf{1}_{S_n\ge 0}] = \int_0^\infty e^{-\lambda \sigma x\sqrt{n}} e^{-x^2/2}\frac{dx}{\sqrt{2\pi}} = \sqrt{n} \int_0^\infty e^{-\lambda \sigma y n} e^{-y^2n/2}\frac{dy}{\sqrt{2\pi}}. $$ Por lo tanto, $$ \sum_{n=1}^\infty \frac{s^n}n \mathsf E[e^{-\lambda S_n}\mathbf{1}_{S_n\ge 0}] = \sum_{n=1}^\infty \int_0^\infty \frac{s^n e^{-\lambda\sigma yn} e^{-y^2n/2}}{\sqrt{2\pi n}} dy = \int_0^\infty \operatorname{Li}_{1/2}(s e^{-\lambda\sigma y}e^{-y^2})\frac{dy}{\sqrt{2\pi}}, $$ donde $\operatorname{Li}_{s}(x) = \sum_{n=1}^\infty{x^n}n^{-s}$ denota la polylogarithm. Por lo tanto, $$ \sum_{n=1}^\infty \frac{s^n}n \mathsf E[e^{-\lambda S_n^+}] = \sum_{n=1}^\infty \frac{s^n}n \mathsf E[e^{-\lambda S_n}\mathbf{1}_{S_n\ge 0}] + \frac12 \sum_{n=1}^\infty \frac{s^n}{n}\\= \int_0^\infty \operatorname{Li}_{1/2}(s e^{-\lambda\sigma y}e^{-y^2})\frac{dy}{\sqrt{2\pi}} - \frac12\log(1-s). $$

Esto no se ve demasiado bien, pero no es imposible como puede parecer. A partir de aquí se puede calcular expectativas (muy fácilmente), variaciones (no tan fácilmente) y obtener algunas de las expresiones para los momentos de orden superior de $M_n^+$.

2voto

Matthew Scouten Puntos 2518

1) $\max(x_1, x_1 + x_2) \le t$ si $x_1 \le t$ $x_2 \le 0$ o$x_1 + x_2 \le t$$x_2 \ge 0$. Puede ayudar a esbozar esta en el $x_1-x_2$ plano. Por lo tanto si $(X_1, X_2)$ tiene conjunta de la densidad de $f(x_1,x_2)$, $$P(\max(X_1, X_1 + X_2) \le t) = \int_{-\infty}^t dx_1 \int_{-\infty}^{t-x_1} dx_2 f(x_1,x_2)$$

Si $X_1$ $X_2$ son iid con la densidad de $f$ y el cdf $F$, esto puede ser escrito como $$ \int_{-\infty}^t dx_1 \; f(x_1) F(t-x_1) $$ La densidad de $\max(X_1,X_1+X_2)$ es entonces la derivada de con respecto al $t$, es decir,

$$ f(t) F(0) + \int_{-\infty}^t dx_1 \; f(x_1) f(t-x_1) $$

En el caso de la distribución normal $\mathscr N(\mu, \sigma^2)$, si no he cometido un error que la densidad es

$$ \dfrac{\exp(-(t-\mu)^2/(2\sigma^2))}{\sqrt{2\pi} \sigma} + \dfrac{\exp(-(t/2 - \mu)^2/\sigma^2)}{2\sqrt{\pi}\sigma} \Phi\left(\frac{t}{\sqrt{2}\sigma}\right) - \dfrac{\exp(-(t-\mu)^2/(2\sigma^2))}{\sqrt{2\pi} \sigma} \Phi\left(\frac{\mu}{\sigma}\right)$$

donde $\Phi$ es el estándar normal de la CDF.

1voto

Stef Puntos 17114

Una observación (para sustituir a una anterior respuesta incorrecta). Tenga en cuenta que $$M_2=X_1+X_2^+$$ where $X_2^+=\max\{0,X_2\}$. So, $$E[M_2]=E[X_1]+E[X_2^+]=0+\frac{1}{σ\sqrt{2\pi}}$$ Similarly $$M_3=X_1+\max\{0,X_2,X_2+X_3\}=X_1+\left(X_2+\max\{0,X_3\}\right)^+=X_1+\left(X_2+X_3^+\right)^+$$ with $E[M_3]>E[X_2^+]=E[M_1]$.

Y dos enlaces aquí y aquí , que podrían indicar(?) que no hay un buen (fácilmente manejable) la forma cerrada de la expresión para la distribución de $M_n$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X