Supongamos sin pérdida de generalidad que $0 < p_1 \leq p_2 \leq \cdots \leq p_k$ y $X = X_1 + \cdots + X_k$ donde $X_i$ son variables aleatorias geométricas independientes con parámetro $p_i$ . Dejemos que $\mu = \mathbb E X = \sum_{m=1}^k \frac{1}{p_m}$ .
A continuación, mostramos un resultado bastante más contundente que el que se afirma en la pregunta. En particular:
Reclamación : Para cualquier $c \geq 2$ y cualquier $k$ tenemos $$\renewcommand{\Pr}{\mathbb P}\newcommand{\E}{\mathbb E} \Pr(X > c (\mu + t) ) \leq (1-p_1)^t \exp(-(2c-3)k/4) \>. $$
Prueba : Por la desigualdad de Markov aplicada a $e^{s X}$ para cualquier $s > 0$ , $$ \Pr(X > c (\mu + t) ) \leq e^{-s c t} e^{-s c \mu} \prod_{m=1}^k \E e^{s X_m} \>. $$
Es un ejercicio fácil comprobar que $$ \E e^{s X_m} = \frac{p_m e^s}{1-(1-p_m) e^s} = \Big(1-\frac{1-e^{-s}}{p_m}\Big)^{-1} $$
Dejemos que $s = -\frac{1}{c}\log(1-p_1)$ para que $e^{-sc} = (1-p_1)$ . Entonces, obtenemos que $$ \Pr(X > c (\mu + t) ) \leq (1-p_1)^t \exp( a \mu - {\textstyle\sum_{m=1}^k} \log(1-b/p_m)) \>, $$ donde $a = \log(1-p_1)$ y $b = 1-(1-p_1)^{1/c}$ .
Recordando la definición de $\mu$ y concentrándonos en el exponente del último término, necesitamos encontrar algún $c$ tal que $$ \sum_{m=1}^k \frac{a}{b}\frac{b}{p_m} - \log(1 - b/p_m) < 0 \>. $$ Dejar $c \geq 2$ y utilizando La desigualdad de Bernoulli tenemos $b = 1-(1-p_1)^{1/c} \leq p_1/c \leq p_1 / 2$ y así, en particular $b/p_m \leq 1/2$ para todos $m$ .
Ya que, para $0 < z \leq 1/2$ la desigualdad $\log(1-z) \geq -z - z^2$ se mantiene, obtenemos que $$ \sum_{m=1}^k \frac{a}{b}\frac{b}{p_m} - \log(1 - b/p_m) \leq \frac{k}{2} (\frac{a}{b} + \frac{3}{2}) \>. $$
Pero, $a = \log(1-p_1) < 0$ y $b \leq p_1 / c$ Así que $$ \frac{a}{b} \leq \frac{c\log(1-p_1)}{p_1} \leq -c \>. $$
Al juntar todo, hemos demostrado que $$ \Pr(X > c (\mu + t) ) \leq (1-p_1)^t \exp(-(2c-3)k/4) $$ como se ha reclamado.
Notas : Observamos lo siguiente:
- Podemos tomar $c = 2$ incluso en el caso de que $p = p_m > 0$ para todos $m$ .
- El caso especial en el que $p_m = m/k$ corresponde a la Problema de cobro de cupones . Hay algunas asintóticas más agudas en el caso del primer problema, así como límites superior e inferior .
- La recogida de cupones también está relacionada con la problema de cumpleaños . Para más información sobre esta conexión, aquí hay un interesante pregunta con varias respuestas diferentes.
0 votos
Para ayudar a la intuición de la demanda: $X_i$ es el número de lanzamientos que tenemos que hacer con la moneda $i$ (con probabilidad de éxito $p_i$ ) para obtener el primer éxito y $X$ es el número total de ensayos necesarios para obtener un éxito con cada uno de $k$ diferentes monedas. La afirmación entonces dice que la probabilidad de que uno necesite más de ( $c$ veces) el número esperado de ensayos más $t$ extra se reduce exponencialmente con $t$ y es esencialmente tan improbable como haber lanzado la peor moneda $t$ veces sin conseguir un solo éxito.
0 votos
He fusionado tus dos cuentas. Saludos.