Soy un desarrollador de juegos que intenta establecer algunas distribuciones aleatorias para producir un rango deseado de resultados posibles, pero me estoy confundiendo sobre los márgenes de error cuando se trata de eventos poco probables. Probablemente sea una pregunta sencilla para un experto en estadística.
Para simplificar, digamos que el juego tiene 20 cajas, cada una de las cuales contiene una recompensa aleatoria cuando el jugador la abre. Si la probabilidad de la recompensa A es del 50%:
$$P(A) = 0.5$$
Entonces el valor esperado sería de 10 recompensas en total (no estoy seguro de si estoy utilizando bien la notación, corrígeme si no es así):
$$E(A) = 20\cdot0.5 = 10$$
En diferentes jugadas, asumiendo un $2\sigma$ Con un intervalo de confianza del 95%, es probable que obtengas entre 6 y 14 A de recompensa el 95% de las veces:
$$\sigma = \sqrt(0.25\cdot20)\approx2.24$$ $$E(A)+2\sigma=14.48$$ $$E(A)-2\sigma=5.52$$
La realización de simulaciones aleatorias lo confirma, los resultados coinciden con la distribución. Lo que me confunde es si la recompensa B es rara, digamos:
$$P(B) = 0.01$$ $$E(B) = 0.2$$
Entonces las matemáticas anteriores no parecen encajar:
$$\sigma \approx 2.24$$ $$E(B)+2\sigma=5.48$$ $$E(B)-2\sigma=-3.48 = 0$$
La probabilidad de obtener 5 recompensas B en una sola partida, con sólo un 1% de posibilidades por contenedor, parece ser muy inferior al 5%, por lo que debe haber algún factor de escala que se me escapa y que correlaciona el margen de error +/- con la probabilidad real del evento.
¡Si alguien sabe lo que me falta que me lo diga!