Estoy tratando de encontrar una versión de los límites de Chernoff que permita que las variables aleatorias tomen valores negativos y al mismo tiempo proporcione una garantía multiplicativa. Más precisamente, estoy familiarizado con la siguiente declaración:
Sea $X_1,\dots,X_m$ sea $m$ variables aleatorias independientes que toman valores en $[0,1]$ con $\mathbb{E} X_i = p_i$ y $\sum_{i=1}^m p_i = P$ . Para cualquier $\gamma \in (0,1]$ tenemos
$$ \begin{align*} \mathbb{P}\left\{\sum_{i=1}^m X_i > (1+\gamma)P\right\} &< \exp_-\frac{\gamma^2P}{3}\\ \mathbb{P}\left\{\sum_{i=1}^m X_i < (1-\gamma)P\right\} &< \exp_-\frac{\gamma^2P}{2} \end{align*} $$
Lo que yo sería like es algo parecido, pero relajando el $[0,1]$ supuesto:
Sea $X_1,\dots,X_m$ sea $m$ variables aleatorias independientes que toman valores en $[-1,1]$ con $\mathbb{E} X_i = p_i$ y $\sum_{i=1}^m p_i = P \geq 0$ . Para cualquier $\gamma \in (0,1]$ tenemos (?)
$$ \begin{align*} \mathbb{P}\left\{\sum_{i=1}^m X_i > (1+\gamma)P\right\} &< \exp_-\frac{\gamma^2P}{3}\\ \mathbb{P}\left\{\sum_{i=1}^m X_i < (1-\gamma)P\right\} &< \exp_-\frac{\gamma^2P}{2}\\ \end{align*} $$
¿Alguien conoce una buena referencia donde exista tal afirmación (si es que existe)? (en realidad, incluso limitando el $X_i$ sería suficiente para lo que necesito).
(Estaba pensando en probarlo directamente siguiendo la prueba estándar y simplemente arreglándolo para que funcione en este escenario, pero la parte de minimización es algo liosa -- si pudiera hacerlo sin reinventar la rueda, sería genial)
Gracias,