Estoy estudiando por mi cuenta el aprendizaje automático y me estoy metiendo en los fundamentos de los modelos de regresión lineal. Por lo que entiendo hasta ahora, un buen modelo de regresión minimiza la suma de las diferencias al cuadrado entre los valores predichos $h(x)$ y los valores reales $y$ .
Algo como lo siguiente:
$$\sum_{i=1}^m (h(x_i)-y_i)^2$$
¿Por qué cuadramos las diferencias? Por un lado, parece que elevarlas al cuadrado nos permitirá obtener un número positivo cuando el valor esperado sea menor que el valor real. Pero, ¿por qué no se puede tener en cuenta esto simplemente tomando la suma de los valores absolutos?
Así:
$$\sum_{i=1}^m |h(x_i)-y_i|$$