En Stephen Stigler, la Historia de las Estadísticas, hay una sección sobre Jacob Bernoulli y su intento de formalizar la incertidumbre acerca de un desconocido proporción dada una acumulación de evidencias, conduciendo en última instancia a la debilidad de la ley de los grandes números.
Estoy teniendo problemas para entender Stigler, la derivación moderna de la ley de Bernoulli. Stigler, escribe que
una declaración moderna de Bernoulli la solución es que para cualquier pequeño número positivo $\epsilon$ y cualquier número positivo grande $c$ (decir, $c$ = 10, 100, o 1.000), $N$ puede ser especificado de manera que
$$ P \bigg( \left| \frac{X}{N} - p \right| \leq \epsilon \bigg) > cP \bigg( \left| \frac{X}{N} - p \right| > \epsilon \bigg) . $$
Esta declaración puede ser fácilmente convertido en lo que ahora es conocido como Bernoulli débiles de la ley de los grandes números. Por simple álgebra esto se convierte en
$$ (1) \quad P \bigg( \left| \frac{X}{N} - p \right| > \epsilon \bigg) < \frac{1}{(c+1)} . $$
Por lo tanto, ya que reconocemos que $c$ es arbitrario, tenemos que dado cualquier $\epsilon > 0$ y cualquier $c$ (pero grandes) $N$ puede ser especificado suficientemente grande como para que (1) tiene - y de Bernoulli de la ley está probado.
Estoy familiarizados con las pruebas que hacen uso de la desigualdad de Chebyshev. Pero estoy teniendo problemas para entender el "simple álgebra" que Stigler, los usos que se derivan $\frac{1}{(c+1)}$. Alguien me puede ayudar con esto o sugerir algo de lectura para hacerlo más claro?