Debido a que ambos de ellos son útiles.
Usted menciona explícitamente la función cuadrado. Por lo tanto, quiero dar algunos ejemplos. La idea principal es que el no-la diferenciabilidad de $|\cdot|$ es útil en el problema de minimización.
Los estimadores de
Sabemos que la media aritmética $\hat{\mu}=\sum_{i=1}^n x_i$ da
$$\min_{\mu} \,(x_i-\mu)^2$$
pero es menos conocido que el de la mediana da
$$\min_{\mu} \, |x_i-\mu|.$$
El Procesamiento De La Señal
Vamos a utilizar el procesamiento de la imagen como un ejemplo. Supongamos $g$ es un hecho, con mucho ruido de la imagen. Queremos encontrar alguna imagen suavizada $f$ que se parece a $g$.
La Armónica L$^2$ modelo de minimización de soluciona
$$-\bigtriangleup f + f = g $$
y resulta ser equivalente a la solución de un problema de minimización:
$$\min_{f} \,(\int_{\Omega} (f(x,y)-g(x,y))^2 dxdy + \int_{\Omega} |\nabla{f(x,y)}|^2 dxdy).$$
Una versión mejorada es el ROF del modelo. Se resuelve
$$\min_{f} \,(\frac{1}{2} \int_{\Omega} (f(x,y)-g(x,y))^2 dxdy + \lambda \int_{\Omega} |\nabla{f(x,y)}| dxdy).$$
Observe que para que proceda $\lambda$, estos dos modelos se diferencian por una plaza. Otra observación es que $|\cdot|$ da la norma Euclídea cuando el argumento es un vector. Sin embargo, la idea sigue siendo válida ya que la norma no es cero
Selección Del Modelo De
En el modelo clásico de la selección del problema, se nos da un conjunto de predictores y una respuesta (en formato vectorial). Queremos decidir que los predictores son útiles. Una manera de hacerlo es elegir un "buen" subconjunto de los predictores. Otra forma es reducir los coeficientes de regresión.
El clásico modelo de regresión resuelve el siguiente problema de minimización:
$$\min_{\beta_0,...,\beta_p} \sum_{i=1}^n (y_i-\beta_0-\sum_{j=1}^p \beta_j x_{ij})^2$$
La Cresta de Regresión resuelve los siguientes:
$$\min_{\beta_0,...,\beta_p} \sum_{i=1}^n (y_i-\beta_0-\sum_{j=1}^p \beta_j x_{ij})^2+\lambda \sum_{j=1}^p {\beta_j}^2$$
, de modo que a mayor $\beta_j$ da pena.
Otra versión es de Lazo, que resuelve
$$\min_{\beta_0,...,\beta_p} \sum_{i=1}^n (y_i-\beta_0-\sum_{j=1}^p \beta_j x_{ij})^2+\lambda \sum_{j=1}^p |\beta_j|.$$