Editar
(Como Robert señaló, lo que yo estaba tratando de demostrar que es incorrecto. Así que ahora la pregunta correcta aquí, para evitar la duplicación de pregunta)
Para infinito de ensayos de Bernoulli independientes con una probabilidad de $p$ del éxito, definir una variable aleatoria N que es igual a la serie de éxito de la prueba. Intuitivamente, sabemos que si $p > 0$, $\Pr \{N < \infty \} = 0$, en otras palabras,$N \rightarrow \infty$. Pero me quedé atrapado cuando trato de demostrarlo matemáticamente.
\begin{aligned} \Pr \{ N < \infty \} & = \Pr \{ \cup_{n=1}^{\infty} [N \le n] \} \\ & = \lim_{n \rightarrow \infty} \Pr \{ N \le n \} \\ & = \lim_{n \rightarrow \infty}\sum_{i=1}^{n} b(i; \infty, p) \\ & = \sum_{i=1}^{\infty} b(i; \infty, p) \\ \end{aligned}
He totalmente ni idea de cómo calcular la última expresión.
(Pregunta Original)
Para infinito de ensayos de Bernoulli independientes con una probabilidad de $p$ del éxito, definir una variable aleatoria N que es igual a la serie de éxito de la prueba. Podemos demostrar que $\Pr \{N < \infty \} = 1$ por:
\begin{aligned} \Pr \{ N < \infty \} & = \Pr \{ \cup_{n=1}^{\infty} [N \le n] \} \\ & = \lim_{n \rightarrow \infty} \Pr \{ N \le n \} \\ & = \lim_{n \rightarrow \infty}\sum_{i=1}^{n} b(i; \infty, p) \\ & = \sum_{i=1}^{\infty} b(i; \infty, p) \\ & = \lim_{m \rightarrow \infty}\sum_{i=1}^{m} b(i; m, p) \\ & = \lim_{m \rightarrow \infty}[p + (1 - p)]^m \\ & = \lim_{m \rightarrow \infty} 1^m \\ & = 1 \end{aligned}
Sé que debe haber algún error en el proceso, porque si $p = 1$, N debe infinito. De manera que la ecuación sólo tiene al $ p < 1 $. Que el paso es correcto?