Dado un conjunto de puntos de $(x_i, y_i)$, regresión lineal de mínimos cuadrados se encuentra la función lineal $L$ tal que $$\sum \varepsilon(y_i, L(x_i))$$ es minimizado, donde $\varepsilon(y, y') = (y-y')^2$ es el error cuadrático entre el real $y_i$ valor y el predicho por $L$ de $x_i$.
Supongamos que quiero hacer lo mismo, pero quiero usar la siguiente función de penalización en lugar de $\varepsilon$: $$ \epsilon(y, L(x)) = \casos de{y-L(x) & \text{si $y>L(x)+1$} \\ (y-L(x))^2 & \text{si $y\le L(x)+1$}}$$
Si el amueblada línea pasa a una cierta distancia por debajo de los datos reales de punto, quiero penalice mucho menos severamente que si la línea pasa a la misma distancia por encima del punto de datos. (El umbral para el uso de la más barata función de penalización es $y > L(x)+1$ en lugar de $y > L(x)$, de modo que sobrerreacción por cierta cantidad $\delta<1$ no está penalizado menos de undershooting por la misma cantidad-no queremos overpenalize $L$ para undershooting por muy poco!)
Podría escribir un programa de computadora para resolver este numéricamente, mediante el uso de una escalada el algoritmo o algo similar. Pero me gustaría saber si hay alguna enfoques analíticos. Si trato de seguir el enfoque que funciona en la habitual función de penalización, me quedo atascado en los comienzos, porque no parece haber ninguna manera de ampliar la expresión de $\epsilon(y_i, mx_i+b)$ algebraicamente.
Espero que el problema ha sido estudiado con diferentes funciones de penalización, y yo estaría contento de una referencia a un buen libro de texto.