Estoy tratando de aprender el aprendizaje automático utilizando el libro " Aprender de los datos ".
Estoy trabajando con los ejercicios y problemas del libro y me he quedado atascado en el problema 1.9 de la página 37, que trata de derivar el límite de Chernoff.
He superado las partes (a) y (b), y he elaborado la prueba para:
$u_1, ..., u_N$ variables aleatorias iid, $u = \frac{1}{N}\sum_{n=1}^N u_n$ y $U(s) = \mathbb{E}_{u_n}(e^{su_n})$ para cualquier $n$ entonces
$$\mathbb{P}[u \geq \alpha] \leq (e^{-s\alpha} U(s))^N$$
En la parte (c) se pregunta por una moneda justa, en la que $\mathbb{P}[u_n = 0] = \mathbb{P}[u_n = 1] = \frac{1}{2}$ .
Se supone que debo "evaluar $U(s)$ en función de $s$ y minimizar $e^{-s\alpha}U(s)$ con respecto a $s$ por el hecho de ser fijo $\alpha$ , $0<\alpha<1$ .
No tengo la menor idea de cómo abordar esta cuestión. ¿Tengo que invocar nociones como "funciones generadoras de momentos"?
Intuitivamente, parece que sólo depende de $u_n$ en comparación con $\alpha$ aunque probablemente me equivoque.