1) yo no considerar esto como una versión cuantitativa del teorema central del límite, sino más bien como una versión cuantitativa de la gran desviación teoremas (los dos están relacionados, por supuesto). Centrémonos en el resultado, y no en los métodos que utiliza para llegar a ellos. Deje $(X_i)$ ser una secuencia de yo.yo.d., $\mathbb{R}$con valores, centrado, delimitadas las variables aleatorias. Voy a denotar por $(S_n)$ la secuencia de sus sumas parciales. Una gran desviación principio indica que existe una tasa de función $I: \mathbb{R} \to \mathbb{R}_+$ tal que, para cualquier conjunto abierto $O$:
$$- \inf_O I \leq \liminf_{n \to + \infty} \frac{\ln \mathbb{P} (S_n/n \in O)}{n},$$
y para cualquier conjunto cerrado $F$:
$$\liminf_{n \to + \infty} \frac{\ln \mathbb{P} (S_n/n \in F)}{n} \leq - \inf_F I.$$
En otras palabras, la probabilidad de que la suma de $S_n$ es grande (por ejemplo, $S_n \geq \varepsilon n$ fijos $\varepsilon$) disminuye de manera exponencial en $n$, aproximadamente a la velocidad de la $e^{- I (\varepsilon)n}$.
Una característica notable de estos grandes de la desviación de los principios para el yo.yo.d. variable aleatoria es que la función de $I$, el cual regula la velocidad de la decadencia, es la Lapaplace-legendre de transformación de la función característica de a $X$. En otras palabras, exactamente lo que usted consigue con el Chernoff límites! Así que el Chernoff límites que le dan un cuantitativa, límite superior para la gran desviación de los principios de:
$$\mathbb{P} (S_n/n \geq \varepsilon) \leq e^{- I(\varepsilon) n},$$
o, equivalentemente,
$$\frac{\mathbb{P} (S_n/n \geq \varepsilon)}{n} \leq - I(\varepsilon).$$
En un contexto más general de la configuración, la función de velocidad de $I$ está relacionado con la entropía de un sistema (se obtiene un gran entropía [que es pequeño para un físico, a menudo hay un cambio de signo] cuando la suma de $S_n$ está lejos de su estado típico).
==========
Hay un punto que es digno de nota, pero no se ha planteado todavía. Usted puede demostrar que momento los límites son más fuertes que la exponencial límites. Usted sabe que, para cualquier $p \geq 0$ y cualquier $t > 0$:
$$\mathbb{P} (|X| \geq t) \leq \frac{\mathbb{E} (|X|^p)}{t^p}.$$
Estos límites son más fuertes que el Chernoff límites: si conoce a cada uno de los momentos de $X$, entonces, el momento de los límites permiten obtener mejores límites en $\mathbb{P} (|X| \geq t)$ de Chernoff límites. Sin embargo, se comportan muy mal cuando usted mira sumas de yo.yo.d. variables aleatorias (debido a los momentos de cambio no trivial de la forma), mientras que la exponencial límites son muy fáciles de manejar:
$$\mathbb{E} (e^{\lambda S_n}) = \mathbb{E} (e^{\lambda X})^n.$$
==========
2) Obviamente, Chernoff límites de existir tan pronto como la función característica $\mathbb{E} (e^{\lambda X})$ está definido en un barrio de $0$, por lo que sólo necesita exponencial de colas para $X$ (y no del acotamiento). Por otra parte, si usted desea conseguir un enlace en una dirección (es decir, en $\mathbb{P} (S_n/n \geq \varepsilon)$ o $\mathbb{P} (S_n/n \leq -\varepsilon)$, no en $\mathbb{P} (|S_n/n| \geq \varepsilon)$), sólo se necesita exponencial de las colas en la dirección correspondiente.
Si usted asume la hipótesis más fuerte en las colas de $X$, usted puede conseguir más fuerte Chernoff límites. Acotamiento o sub-gaussianidad de $X$ son típicos supuestos.
Usted puede obtener similar límites (concentración de las desigualdades), no sólo para el aprtial sumas de yo.yo.d. variables aleatorias, sino también por algunos martingales (ver Collin McQuillan de la respuesta), y mucho, mucho más grandes clases de procesos. Esta página de la Wikipedia, le dará un sabor de la misma, así como algunas palabras clave, si usted está interesado.