7 votos

La distribución del máximo de parciales de sumas de variables aleatorias independientes

He estado buscando por toda la red para encontrar una manera de trabajar a cabo una distribución de probabilidad de un máximo de parciales de sumas de variables aleatorias independientes, pero fue en vano. Así que he decidido intentar trabajar por mi cuenta. Aquí están los resultados de esta iniciativa y me gustaría saber si las personas con un mejor entendimiento de la probabilidad de que me iba a darle un vistazo a ver si me he hecho un lío en algún lugar. Muchas gracias. Aquí va.

Dado un conjunto $\{X_i:i=0,1,\ldots,n \}$ de variables aleatorias independientes con $X_0 = 0$ y con p.d.f.'s $f_{X_i}(x)$ y los correspondientes c.d.f $F_{X_i}(x)$, definir $S_k=\Sigma_{i=0}^k\,X_i$, e $M_k=\max\{S_0,S_1,\ldots,S_k \}$, y queremos encontrar un distrinution de $M_n$. Tenemos

$$ \begin{eqnarray*} P(M_n<m)&=&P(\max\{M_{n-1},S_n\}<m)\\ &=&P(M_{n-1}<m,S_n<m)\\ &=&P(S_n<m|M_{n-1}<m)P(M_{n-1}<m),\\ \end{eqnarray*} $$

donde

$$ \begin{eqnarray*} P(S_n<m|M_{n-1}<m) &=&P(S_n<m|\max\{M_{n-2},S_{n-1}\}<m)\\ &=&P(S_n<m|S_{n-1}<m)\\ &=&P(S_n<m,S_{n-1}<m)/P(S_{n-1}<m), \end{eqnarray*} $$

donde

$$ \begin{eqnarray*} P(S_n<m,S_{n-1}<m) &=&P(S_{n-1}+X_n<m,S_{n-1}<m)\\ &=&\int\limits_{-\infty}^m f_{S_{n-1}}(s)\int\limits_{-\infty}^{m-s}f_{X_n}(x)\mathrm dx\,\mathrm ds\\ &=&\int\limits_{-\infty}^m f_{S_{n-1}}(s)F_{X_n}(m-s)\mathrm ds, \end{eqnarray*} $$

donde

$$ \begin{eqnarray*} f_{S_k}(s)&=&\int\limits_{-\infty}^{\infty} f_{X_k}(x)\,f_{S_{k-1}}(s-x)\mathrm dx, \end{eqnarray*} $$

con

$$ \begin{eqnarray*} f_{S_0}(s)=\delta (s), \end{eqnarray*} $$

así que poniendo todo en conjunto da una fórmula de recursión

$$ \begin{eqnarray*} F_{M_n}(m) = \frac{F_{M_{n-1}}(m)}{F_{S_{n-1}}(m)} \int\limits_{-\infty}^m f_{S_{n-1}}(s)F_{X_n}(m-s)\mathrm ds \end{eqnarray*} $$

con

$$ \begin{eqnarray*} F_{M_0}(m) = H(m) \end{eqnarray*} $$

la función escalón unitario.

Agrega 1: El uso de otro método, he obtenido el siguiente resultado $$ f_{M_n}(m) = f_{M_{n-1}}(m)F_{X_n}(0) + \int\limits_0^m f_{X_n}(m-x)f_{M_{n-1}}(x)\mathrm dx $$

que para 2 normal r.v. parece dar un resultado que coincide con la presentada en una de las respuestas por Sasha.

Añadido 2: Por fin tengo algo de tiempo libre para mirar este problema de nuevo y aquí están mis pensamientos sobre ella. Una vez más, agradecería cualquier comentario sobre ella.

Empezamos considerando una distribución conjunta de $f_{S_1,S_2}(s_1,s_2)$ donde $S_1 = X_1$, $S_2 = S_1 + X_2$, $X_1 \sim X_2 \sim X$, y $X_1$ $X_2$ son independientes. Tenemos

$$ f_{S_1,S_2}(s_1,s_2) = f_{S_2 \mediados de S_1}(s_2 \mediados de s_1)f_{S_1}(s_1) = f_{X_2}(s_2 - s_1)f_{X_1}(s_1) = f_{X}(s_2 - s_1)f_{X}(s_1) $$

A continuación, tenemos

$ \begin{eqnarray*} F_{M_n}(m)&=&P(M_n<m)\\ &=&P(\max\{S_{n},S_{n-1},...,S_1\}<m)\\ &=&P(S_{n}<m,S_{n-1}<m,...,S_1<m)\\ &=&\int\limits_{-\infty}^m ... \int\limits_{-\infty}^m f_{S_n,S_{n-1},...,S_1}(s_n,s_{n-1},...,s_1)\mathrm ds_n \mathrm ds_{n-1} ... \mathrm ds_1 \\ &=&\int\limits_{-\infty}^m ... \int\limits_{-\infty}^m f_{S_n \mid S_{n-1},...,S_1}(s_n \mid s_{n-1},...,s_1)... f_{S_2 \mid S_1}(s_2 \mid s_1)f_{S_1}(s_1) \mathrm ds_n \mathrm ds_{n-1} ... \mathrm ds_1 \\ &=&\int\limits_{-\infty}^m ... \int\limits_{-\infty}^m f_{S_n \mid S_{n-1}}(s_n \mid s_{n-1})... f_{S_2 \mid S_1}(s_2 \mid s_1)f_{S_1}(s_1) \mathrm ds_n \mathrm ds_{n-1} ... \mathrm ds_1 \\ &=&\int\limits_{-\infty}^m ... \int\limits_{-\infty}^m f_X(s_n - s_{n-1})... f_X(s_2 - s_1)f_X(s_1) \mathrm ds_n \mathrm ds_{n-1} ... \mathrm ds_1 \\ &=& \prod_{i=1}^n \int\limits_{-\infty}^m f_X(s_i - s_{i-1}) \mathrm ds_i \end{eqnarray*} $$

donde $s_0 \equiv 0$. Espero que la anterior notación es lo suficientemente clara. Ahora

$$ \begin{eqnarray*} F_{M_n}(m) = \mathbb E[\mathbb I_{ M_n \leq m}] = \prod_{i=1}^n \int\limits_{-\infty}^{-\infty} f_X(s_i - s_{i-1}) \mathbb I_{s_i \leq m} \mathrm ds_i. \end{eqnarray*} $$

La función característica $\varphi_{M_n}(t) = \mathbb E[\mathbb e^{i t M_n}]$ es entonces

$$ \begin{eqnarray*} \varphi_{M_n}(t) = \prod_{i=1}^n \int\limits_{-\infty}^{-\infty} f_X(s_i - s_{i-1}) \mathbb e^{i t s_i} \mathrm ds_i \end{eqnarray*} $$

6voto

Reto Meier Puntos 55904

Si usted está interesado en la situación de un gran $n$, a continuación, tenga en cuenta que si tu variables aleatorias $X_i$ tiene varianza finita, entonces como $n \to \infty$ la ampliación del límite de $S_k$ es un movimiento Browniano $B_t$. La distribución de $M_t = \max_{0 \le s \le t} B_s$ es conocido por ser el mismo que el de $|B_t|$, es decir, el valor absoluto de una variable aleatoria normal con media 0 y varianza $t$, y el pdf es $$P(M_t \in dx) = \sqrt{\frac{2}{\pi t}} e^{-x^2/2t} dx.$$ Ver, por ejemplo, I. Karatzas y S. Shreve, el Movimiento Browniano y el Cálculo Estocástico, 2ed, la Proposición 2.8.1 (el resultado citado anteriormente es el Problema 2.8.2 pero que acaba de tener el resultado en la Proposición 2.8.1 e integrar a cabo $a$).

5voto

Did Puntos 1

El paso en el que afirman que $$ \mathrm P(S_n<m\mediados de M_{n-1}<m)=\mathrm P(S_n<m\mediados de S_{n-1}<m) $$ debido a $(S_n)_{n\ge0}$ es una cadena de Markov, es un bello ejemplo de los errores sutiles que uno puede hacer cuando se utiliza la propiedad de Markov.

Para ver que esta igualdad es falsa en general, considere la posibilidad de un inhomogenous paseo aleatorio $(S_n)$, exactamente igual que en tu post. Fijar un tiempo de $n\ge2$, y se supone que $X_{n-1}=-1$ o $-2$ pero $X_k=\pm1$ o $0$ por cada $0\le k\le n$ tal que $k\ne n-1$.

A continuación, $X_{n-1}\le0$ casi seguramente por lo tanto $[M_{n-1}<1]=[M_{n-2}<1]$. Y $X_{n-1}\le-1$ casi seguramente por lo tanto $[M_{n-2}<1]\subseteq[S_{n-2}<1]\subseteq[S_{n-1}<0]$. Y $X_n\le1$ casi seguramente por lo tanto, condicionalmente en $[S_{n-1}<0]$, $S_n<1$ casi seguramente. Esto demuestra que $$ \mathrm P[S_n<1\mediados de M_{n-1}<1]=1. $$ Por otro lado, $[S_{n-1}=0]$ tiene probabilidad positiva debido a $n\ge2$, e $[S_{n}=1]$ contiene $[S_{n-1}=0]\cap[X_{n}=1]$, por lo tanto $$ \mathrm P[S_n<1\mediados de S_{n-1}<1]<1. $$ Agrega en la nota Las propiedades clave de la caminata al azar en este contraejemplo se que $X_{n-1}\le-x$ $X_n\le x$ casi seguramente, para un dado positivo $x$, y que ambos eventos $[S_{n-1}=0]$ $[X_n\ge1]$ tienen probabilidad positiva.

1voto

Grant Puntos 116

Por lo tanto, hay un movimiento en falso en su respuesta ya fue señalado y la solución en términos de probabilidades conjunta fue discutido. Echemos un vistazo a este problema de Markov prospectivo. Como ya he dicho, el proceso de $S_k$ es un no homogéneas (dependiente del tiempo) de Markov proceso - de hecho, si se conoce el estado actual $S_k = s$ y el tiempo actual instancia de $k$, por lo que conocer la distribución de la $S_{k+1}$, incluso sin el conocimiento de toda la historia.

Por el momento vamos a olvidar que el proceso es dependiente del tiempo, por lo tanto consideramos que sólo una suma de variables aleatorias iid. Nos deja denotar $u_n(m) = \mathsf P_0\{M_n<m\}$. Aquí $\mathsf P_0$ es una probabilidad condicionada al hecho de que se inicia desde $S_0=0$. Debido al hecho de que $S$ es sólo una suma de incrementos independientes, si no empezaremos de $S_0=0$ pero de $S_0 = s$ lo vamos a conseguir $$ \mathsf P_s\{M_n<m\} = \mathsf P_0\{M_n<m-s\} = u_n(m-s).\quad (*) $$ Eso significa que el conocimiento de estudio de la $\mathsf P_s\{M_n<m\}$ cualquier $s$ y un fijo $m$ es equivalente al conocimiento de $\mathsf P_0\{M_n<m\}$ cualquier $m$, por lo que la distribución de $M_n$. Para el acceso directo denotamos $v_n(s):=u_n(-s)$.

Es más conveniente tratar con $\mathsf P_s$ debido a la siguiente razón. Supongamos, usted sabe $v_n(s)$ - que es la probabilidad de que a partir de $S_0 = s$ el máximo no podrá exceder el nivel cero, es decir, acaba de poner a $m=0$$(*)$. ¿Cómo se puede calcular ahora $v_{n+1}(s)$? Por lo tanto empezar de $s$ y, a continuación, saltar a algún punto de $t$ donde usted ya sabe que la probabilidad de permanecer siempre inder el nivel cero -, usted sólo tiene que aplicar la ley del total de la probabilidad: $$ v_{n+1}(s) = \int\limits_\mathbb R v_n(t)f_X(t-s)\,dt. $$ con $v_0(s) = 1-H(s)$. Así se obtiene a partir de a $(*)$ que $v_n(s) = \mathsf P_0\{M_n<-s\}$ cualquier $s\in \mathbb R$ y usted sabe que la distribución de la máxima.

¿Qué va a cambiar si se lo permiten a $X_i$ tener diferentes distribuciones como en tu pregunta original? La variable adicional aparecerá, pero la idea de $(*)$ deja unviolated: usted todavía tiene la suma de incrementos independientes. Si usted cambia el punto de partida, usted puede cambiar el límite superior para el máximo en el mismo valor y la probabilidad no va a cambiar. Sin embargo, lo complicado aquí es que a la hora de inicio de la materia. Supongamos que usted sabe $$ v_n(0,s) = \mathsf P\{M_n<0|S_0=s\} $$ donde $0$ $v_n$ nos dice que usted acondicionado en el valor de $S_k$ a la $k=0$. Pero entonces, para calcular $v_{n+1}(0,s)$ necesitamos saber $v_n(1,s)$, ya que serán diferentes debido a la diferencia en las distribuciones de los saltos. Así, $$ v_{n+1}(0,s) = \int\limits_\mathbb R v_n(1,t)f_{X_1}(t-s)\,dt \quad (**) $$ con una condición inicial $$ v_0(k,s) = 1-H(s) $$ para todos los $k = 0,1,2,3,...$

Por ejemplo, para calcular el $\mathsf P\{M_n<m|S_0=0\} = v_n(0,-m)$ algoritmo es:

  1. usted sabe $v_0(n,s)=1-H(s)$ cualquier $s$.

  2. de $(**)$ encontrará $v_1(n-1,s)$;

  3. desde el paso anterior se encontrar $v_2(n-2,s)$ mediante la aplicación de $(**)$.

    <...>

  4. desde el paso anterior se encontrar $v_{n-1}(1,s)$ y la aplicación de $(**)$ que has hecho.

0voto

Robert Christie Puntos 7323

Desde $\max(S_0, \ldots, S_n) \le m$ implica $S_0 \le m \land S_1 \le m \land \ldots \land S_n \le m$, tenemos $$ \mathbb{P}(M_n \le m) = \mathbb{P}(S_0 \le m \de la tierra S_1 \le m \de la tierra \ldots \tierra S_n \le m) $$

Que es la cdf de la máxima de la cdf de la articulación de la distribución de vector con componentes igual: $$ F_{M_n}(m) = F_{S_0,S_1,\ldots,S_n}\left(m,m,\ldots,m\right) $$ Su éxito en el trato con esto dependerá de tratabilidad de $F_{S_0,\ldots, S_n}$. Suponga $m \ge 0$, por lo que el $0 = S_0 \le m$ es trivialmente cierto.

Considerando $n=2$, y en el caso de la normal estándar $X_i$, vector $\{S_1, S_2\}$ sigue binormal de distribución con $\mu_1 = \mu_2 = 0$ y $\sigma_1 = 1$, $\sigma_2 = \sqrt{2}$ y la correlación $\rho = \frac{1}{\sqrt{2}}$.

Utilice el hecho de que $\frac{d}{d x} F_{\mathcal{BN}}(x,y) = f\left(\frac{x-\mu_1}{\sigma_1}\right) \Phi\left( \frac{\sigma _1 \left(y-\mu _2\right) - \rho \, \sigma _2 \left(x-\mu _1\right)}{ \sigma _1 \sigma _2 \sqrt{1-\rho ^2}} \right) $, and similarly for derivative with respect to $$ y, tenemos $$ \frac{\mathrm{d}}{\mathrm{d} m} \Phi_{S_1,S_2}\left(m,m\right) = \frac{1}{2} \left( f(m) + 2 f\left(\frac{m}{\sqrt{2}}\right) \Phi\left(\frac{m}{\sqrt{2}} \right)\right) $$ donde $f$ es el pdf de la normal estándar, y $\Phi$ es su función de distribución acumulativa. Esta muestra, que $\max(S_1, S_2)$ sigue igual proporción de la mezcla entre la distribución normal estándar y Azzalini del skew-normal de distribución.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X