Yo estaba estudiando el primer capítulo de Reconocimiento de patrones y el Aprendizaje de Máquina, por Christopher Obispo, y en la presentación de la suma de los cuadrados de los errores de la función
$$ E(w) = \frac{1}{2}\ \sum\limits_{n=1}^N \{y(x_n,w) - t_n\}^2 $$
donde $y$ es la función polinomial es modelado, $x$ su variable, $w$ la polinomial coeficientes de ser descubierto y $N$ el tamaño del conjunto de entrenamiento.
En este libro, y en otras situaciones tales como la de Andrew Ng conferencias de vídeo, esta $ \frac{1}{2} $ es "incluido para más tarde conveniencia". Que la comodidad es eso? Estoy luchando por ignorar esto, pero, simplemente no puedo evitar el hecho de que no sé donde esta fracción está llegando desde y cuál es su impacto en este cálculo.
Lo que este medio significa, en el contexto de la suma de los cuadrados de los errores?