Esta es una pregunta muy básica (actualmente, estoy estudiando licenciatura estadísticas de nivel), pero tenía la esperanza de obtener algunas aclaraciones con respecto a una afirmación que he leído en un artículo de prensa el día de hoy. El autor afirma que
la evidencia acerca de los riesgos (de parto) ha sido difícil de encontrar y difícil de interpretar. Esto es en parte debido a los riesgos generales de la salud materna y neonatal de la muerte son ahora muy pequeña (alrededor de cinco de cada 100.000 mujeres mueren en el parto y cuatro por cada 1.000 bebés), por lo que gran número de los crisantemos son necesarios para evaluar los riesgos relativos.
Ahora, intuitivamente, esto parece incuestionable - si un evento ocurre rara vez, entonces usted esperaría más ensayos que sean necesarios para lograr una buena estimación de la probabilidad de que el evento, cuando en comparación a lo que ocurre con más frecuencia.
Sin embargo, estoy teniendo problemas para ver cómo las matemáticas lleva esto a cabo. Si tomamos el ejemplo en el artículo, podemos modelar la probabilidad de la muerte de una madre durante el parto como un ensayo de Bernoulli con una estimación del parámetro de $p$ dado por $\hat{p}=\frac{5}{1000}$.
A partir de esto, podemos construir un intervalo de confianza 95% para el verdadero valor de p:
$$ p^{\pm} = \hat{p} \pm 1.96 \frac{p(1-p)}{\sqrt{n}} $$
Sin embargo, si tomamos el límite de $p \to 0$ tenemos
$$ \begin{aligned} \lim_{p \to 0} p^{\pm} = \hat{p} \pm 1.96 \frac {0(1-0)}{\sqrt{n}}\\ = \hat{p} \pm 1.96 \frac {0}{\sqrt{n}}\\ = \hat{p} \pm 0 \end{aligned} $$
Por lo tanto, parece que nuestra estimación de $p$, de hecho, se vuelve más precisa como $p$ se hace más pequeño, independientemente de nuestro valor de $n$. Esto parece bastante counterintuituve a mí - se me va mal en algún lugar, y si es así, ¿dónde?
Muchas gracias,
Tim