Cuando se trata de asintóticas de probabilidades, la expresión $(1-p)^n$ aparece todo el tiempo. La manera más conveniente de manejarla es con las desigualdades $$1 - pn \le (1-p)^n \le e^{-pn}$$ donde el límite inferior es la desigualidad de Bernoulli. (Aquí estoy asumiendo que $p \in [0,1]$ y $n$ es un número natural.) De hecho, como se menciona en la respuesta de p4sch, el límite superior también es una consecuencia de la desigualdad de Bernoulli, a través de la desigualdad $1 + x \le e^{x}$.
Por ejemplo, el resultado de que las propiedades monótonas del modelo Erdős–Rényi de grafos aleatorias tienen umbrales se basa en el hecho de que si tomas la unión de $k$ copias de $\mathcal G_{n,p}$, el grafo que obtienes (que tiene la distribución $\mathcal G_{n,1-(1-p)^k}$) se puede considerar como un subgrafo de $\mathcal G_{n,kp}$. Esto implica que a medida que la probabilidad de la arista $p$ escala linealmente, la probabilidad de que tu grafo carezca de una propiedad monótona decae exponencialmente: $$\Pr[\mathcal G_{n,kp} \text{ carece de la propiedad $M$}] \le \Pr[\mathcal G_{n,p} \text{ carece de la propiedad $M$}]^k.$$ Para más detalles, consulta el Teorema 1.7 en este libro de texto.
Muchas desigualdades pueden probarse entre sí y es difícil decir que alguna vez "necesitas" un resultado en particular. Sin embargo, este es un ejemplo donde la desigualdad de Bernoulli es la herramienta más conveniente de usar.
0 votos
La desigualdad del triángulo, las sumas de cuadrados y los Bernoulli pueden básicamente arrancar todas las desigualdades relevantes en el análisis.
0 votos
¿Cuáles son todas las "desigualdades relevantes en análisis" para ti (y dónde se usa Bernoulli)?