Los problemas de ajuste de curvas se resuelven minimizando una función de coste/error con respecto a los parámetros del modelo. El descenso gradual y el método de Newton son algunos de los muchos algoritmos utilizados para minimizar esta función.
El $L_\infty$ también puede utilizarse como función de coste para regresión lineal/polinómica . Mi pregunta: ¿es posible utilizar el descenso de gradiente para minimizar el coste definido por el $L_\infty$ norma (es decir $\text{cost} = \max|\text{predicted} - \text{actual}|$ )? ¿Cómo se define el gradiente de esta función?