5 votos

Límites de concentración en una secuencia de (0,1)-experimentos

Tengo un $(0,1)$-experimento que devuelve $1$ con una probabilidad de $p$ $0$ con una probabilidad de $1-p$. Deje $X_i$ ser la variable aleatoria que describe el resultado de la iteración $i$ del experimento. Estoy interesado en el valor $Y_t=\sum_{i=0}^t X_i$, que cuenta el número de éxitos desde el comienzo de la secuencia. La secuencia termina tan pronto como $Y_t \geq (p+\delta) \cdot t$ ( $0 < \delta < 1-p$ ) es cumplido, es decir, cuando la relación entre la $0$ $1$ es superior al umbral $p+\delta$.

De forma bastante intuitiva la suma converge a $Y_t = p\cdot t$ (se esperaba valor), pero la probabilidad de alcanzar $Y_t = (p+\delta)\cdot t$ es no-cero, y va a ser alcanzado en un infinito de ejecución. La pregunta es cuando va a ser alcanzado?

Para ello existen dos valores interesantes que me gustaría calcular: la la probabilidad de cada paso $t \rightarrow t+1$ siendo el último, es decir, $Pr[Y_{t+1} \geq (p+\delta) \cdot (t+1)|Y_t < (p+\delta) \cdot t]$ y el tiempo de espera hasta que la secuencia se termina, $\mathrm{E}[\text{steps}]$.

14voto

Aaron_H Puntos 1

El tiempo de espera hasta que la secuencia se termina es infinito. De hecho, no sólo es el valor esperado de $\text{min}\{t : Y_t>(p+\delta)t\}$ infinito para cualquier $\delta>0$, pero incluso el valor esperado de $\text{min}\{t : Y_t > pt + \delta\}$ es infinito.

Esto puede ser demostrado mediante el teorema de muestreo opcional (también conocido como opcional detener teorema). Definir $\tau = \text{min}\{t : Y_t > pt + \delta\}$, y definir $Z_t=Y_t-pt$. Tenga en cuenta que

  1. $Z_t$ es una martingala, y
  2. Por definición, $Z_\tau\geq\delta>0$ y, por tanto,$E[Z_\tau]>0$.

Si $E[\tau]<\infty$, entonces el teorema de muestreo opcional implicaría que $E[Z_\tau]=Z_0=0$, lo cual es una contradicción.

La situación para el tiempo aleatorio usted menciona en el OP es aún más grave.
Deje $K_t$ denotar el caso de $Y_t>(p+\delta)t$ y definen $\sigma=\text{min}\{t : K_t\}$. Se puede demostrar que $P[\sigma=\infty]>0$, lo que significa que este umbral es posible que nunca se cruzaron.

Brevemente, una vez más, podemos hacer esto por la contradicción. En primer lugar, asumir $P[\sigma<\infty]=1$, y deje $\sigma_2$ denotar la segunda vez que $K_t$ se produce.

Tenga en cuenta que, para cualquier $t$ si $Y_t-Y_\sigma>(p+\delta)(t-\sigma)$, entonces, desde la $Y_\sigma>(p+\delta)\sigma$ por supuesto, debe ser el caso que $Y_t>(p+\delta)t$. Así que, por la independencia de la $Y_t$, se deduce que $P[\sigma_2-\sigma_1<\infty]=1$ e lo $P[\sigma_2<\infty]=1$ también. Y lo mismo va para $\sigma_3$$\sigma_4$, y así sucesivamente, lo que significa que el evento $K_t$ se produce infinitamente a menudo con una probabilidad de $1$.

Sin embargo, dado que cada una de las $Y_t$ es la suma de ensayos de Bernoulli independientes, entonces se puede demostrar (es decir, Chernoff límites) que existe una constante fija $C$ (dependiendo de las constantes $p$$\delta$) tales que $$P[K_t]=P[Y_t-pt>\delta t]<e^{-Ct}.$$ De esto se sigue que $$\sum_{t=1}^\infty P[K_t]<\infty,$$ y así por el Borel-Cantelli lema, con una probabilidad de $1$, $K_t$ sólo se produce finitely a menudo. Por lo tanto, tenemos una contradicción.

Como para el cálculo de las probabilidades de que cada paso es el último (es decir, las probabilidades de $P[\sigma=t]$), no puedo pensar de cualquier manera fácil de hacer esto sin hacer una simulación. Eso no quiere decir que no hay ninguna manera de hacerlo, por supuesto.

Si usted está buscando para obtener más información relativa a esta pregunta, sugiero que se busca en el continuo de la versión de el proceso, que sería el movimiento browniano con deriva. Me imagino que usted puede encontrar en alguna parte un cálculo de la probabilidad de que el movimiento browniano con deriva cruces de este tipo de un umbral.

Para agregar: si usted está interesado en valores numéricos, que son bastante fáciles de calcular, al menos para los moderados valores de $T$. Aquí es un simple R la función que calcula la probabilidad de escape, así como la distribución condicional condicional en la supervivencia hasta el tiempo n:

simProb<-function(p,n,delta){
  pp<-c(p,1-p)
  thresh<- floor(1+(p+delta)*(1:n))
  x<-1
  res<-rep(0,n)
  rsum<-1
  for(i in 1:n){
    x<-convolve(x,pp,t="o")
    if(length(x)>thresh[i]){      
      res[i]<-sum(x[(thresh[i]+1):length(x)])*rsum
      rsum<-rsum-res[i]
      x<-x[1:(thresh[i])]
      x<-x/sum(x)
    }
  }
  list(p=res,x=x)
}

Aquí es lo que las probabilidades de supervivencia son específicos para algunas constantes:

plot(1-cumsum(simProb(0.6,1000,0.01)$p),type="l",ylim=c(0,0.4))

enter image description here

También se puede examinar la probabilidad de supervivencia en función de $\delta$ como este:

delt<-0.001*(1:399)
surv<-sapply(delt,  function(delta)1-sum(simProb(0.6,1000,delta)$p))
plot(delt,surv,type='l')

enter image description here

Usted puede ver cómo discontinuo, esto es: la razón es que, desde el $Y_t$ $t$ son de valor entero la condición de salida $Y_t>(p+\delta)t$ es efectivamente discontinuo como una función de $t$. Por esta razón, es poco probable de que no es una buena fórmula para la probabilidad de supervivencia hasta el momento de $t$.

2voto

Jeff Bauer Puntos 236

Una de las pregunta de la consulta es la probabilidad de que "el siguiente paso será la última". El OP estados de esta probabilidad como $Pr[Y_{t+1} \geq (p+\delta) \cdot (t+1)|Y_t < (p+\delta) \cdot t]$, pero esto no es una representación correcta. Y esto es debido a que se requiere que el proceso debe detenerse la primera vez que se alcanza el umbral pertinente. A la izquierda ilimitado, el proceso puede cruzar el umbral en el tiempo $t$,luego de caer por debajo del umbral que tiene para el período de $t+1$, y, a continuación, cruzar la siguiente umbral de nuevo, etc. Es decir, podemos tener $Y_t < (p+\delta) \cdot t$, pero $Y_{t-1} > (p+\delta) \cdot (t-1)$, en cuyo caso $Y_t$ (y, por supuesto,$Y_{t+1}$) no se observaron desde que el proceso se ha detenido en $Y_{t-1}$.

Para compactar la notación, denotan $h_t$ el umbral de paso $t$. A continuación, la correspondiente declaración de la probabilidad es

$$ Pr[Y_{t+1} \geq h_{t+1}\mid Y_{t+1}\; \text{is observed}]\equiv P^s_{t+1} $$

Así que primero tenemos que calcular la probabilidad de continuación del proceso. El conteo de $1$, la probabilidad de que $Y_2$ será observada es igual a la probabilidad de que en el primer paso, el de Bernoulli juicio le dará un valor cero: $Pr[Y_{2} \;\text{is observed}] = Pr(Y_1 =0) =1-p$. La probabilidad de que $Y_3$ observado es igual a la probabilidad de que $Y_2$ no alcanzan o exceden $h_2$, dado que el $Y_2$ que se observa.

$$P^c_3 \equiv Pr[Y_3 \;\text{is observed}] = Pr[Y_2 < h_2 \mid Y_2 \;\text{is observed}]$$

Aplicar el teorema de Bayes, tenemos

$$Pr[Y_2 < h_2 \mid Y_2 \;\text{is observed}] = Pr[Y_2 \;\text{is observed} \mid Y_2 < h_2 ]\frac {Pr[Y_2 < h_2]}{Pr[Y_2 \;\text{is observed}]}$$

$$=1\cdot\frac {Pr[Y_2 < h_2]}{Pr[Y_2 \;\text{is observed}]} \Rightarrow P^c_3 = Pr[Y_2 < h_2]\cdot \left(P^c_2\right)^{-1}$$

Por lo que la probabilidad de que el $t+1$ paso será la última es $$P^s_{t+1} = Pr[Y_{t+1}\; \text{is observed}\mid Y_{t+1} \geq h_{t+1}] \frac {Pr[Y_{t+1} \geq h_{t+1}]}{Pr[Y_{t+1}\; \text{is observed}]}$$ $$= Pr[Y_{t+1} \geq h_{t+1}]\cdot \left(P^c_{t+1}\right)^{-1}$$

Denotar por la compacidad de la probabilidad incondicional de no alcanzar el umbral en el juicio $t$, $P^b_t$. Estas son las probabilidades independientemente de si el proceso puede haber cruzado el umbral en algún paso antes de $t$. A continuación, utilizando la fórmula recursiva para $P^c_{t+1}$ obtenemos

$$P^s_{t+1} = (1-P^b_{t+1})\frac{P^b_{t-1}\cdot P^b_{t-3}\cdot...}{P^b_{t}\cdot P^b_{t-2}\cdot...} \qquad [1]$$

La ecuación de $[1]$ contiene incondicional probabilites de sumas (de diferente cardinalidad) de yo.yo.d. Bernoulli variables. La probabilidad de la generación de la función de Bernoulli r.v. es $G(z) = 1-p +pz$. La pgf de la suma de (i).yo.d Bernoullis es sólo el producto de la persona de la pgf. Así

$$G_{Y}(z;t) = (1-p+pz)^t$$ La probabilidad de $Y_t$ tener el valor entero $0\le k\le t$ (pmf) es recuperado a través de la $k$-ésima derivada de la pgf evaluada en cero $$P(Y_t=k) = \frac {1}{k!}G^{(k)}_{Y}(0;t) = \left(\begin{matrix} t \\k \end{de la matriz}\right) (1-p)^{t-k}p^k$$

y así

$$P(Y_t\le k) = \sum_{j=0}^k \left(\begin{matrix} t \\j \end{de la matriz}\right) (1-p)^{t j}p^j$$

En nuestro caso el umbral de $h_t$ no es, en general, un número entero. En el fin de cubrir tanto el número entero y no entero caso, utilizamos el techo de la función de $h_t-1$, $\lceil h_t-1 \rceil$, obtener, por ejemplo,

$$P^b_{t} = Pr[Y_{t} \le \lceil h_t-1 \rceil] = \sum_{j=0}^{\lceil h_t-1 \rceil} \left(\begin{matrix} t \\j \end{de la matriz}\right) (1-p)^{t j}p^j \qquad [2]$$

una fórmula a través de la cual podemos obtener los distintos componentes de $[1]$, para cada paso, y ser capaz de calcular la probabilidad de $P^s_{t+1}$ cualquier $\{p,\delta, t\}$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X