El sistema que intento modelar es el siguiente:
- Un programa lleva tiempo $T$ para correr
- El ordenador se bloquea de media cada $\text{MTBF}$ unidades de tiempo
- El programa se ejecuta repetidamente hasta que se completa sin un fallo
- ¿Cuál es el plazo de ejecución previsto?
Intenté calcular esto calculando cuántas veces se espera que el programa falle antes de completarse:
Si los fallos se modelan mediante un proceso de Poisson de tasa $\frac{1}{\text{MTBF}}$ entonces la probabilidad de que no se produzca ningún fallo durante el programa es $e^{-\frac{T}{\text{MTBF}}}$
Por lo tanto, el número de fallos hasta el éxito se modela mediante una distribución geométrica y, por lo tanto, el número esperado de fallos es $e^{\frac{T}{\text{MTBF}}}-1$ (por el resultado estándar de que la expectativa $=\frac{1-p}{p}$ )
Por lo tanto, el tiempo de finalización viene dado por $(e^{\frac{T}{\text{MTBF}}}-1)*t+T$ donde $t$ es la duración esperada de cada ejecución fallida. Pero no estoy seguro de cómo calcular este valor $t$ ? ¿Será simplemente el tiempo esperado entre eventos en el proceso de Poisson condicionado a que este tiempo sea $<T$ ?
¿Existe una forma más directa de calcular este tiempo previsto hasta que se produzca un vacío $T$ entre dos eventos del proceso de Poisson?