Una respuesta a la pregunta "¿de regresión estimación, no es un MLE?", un sencillo y robusto alternativa de mínimos Cuadrados (LS) al parecer es Menos Absoluta Desviación (KOP).
Para citar una fuente:
"El mínimo absoluto de las desviaciones método (LAD) es una de las principales alternativas para el método de mínimos cuadrados cuando se pretende estimar los parámetros de regresión. El objetivo de un MUCHACHO de regresión es proporcionar un estimador robusto."
Curiosamente, por una referencia, la cita de "El mínimo absoluto de las desviaciones de la estimación también se plantea como la máxima probabilidad de estimar si los errores tienen una distribución de Laplace." Aquí está un enlace que explica algunas aplicaciones interesantes de la Laplace (como a un Bayesiana anterior, y para los eventos extremos).
Históricamente, el MUCHACHO procedimiento fue introducido 50 años antes de que el método de mínimos cuadrados (1757) por Roger Joseph Boscovich, que la emplea para conciliar incoherente medidas relativas a la forma de la tierra.
Una ilustración de la diferencia es en el caso muy simple de Y = Constante, donde el LS devuelve la media de la muestra, mientras que el MUCHACHO se selecciona la muestra de la mediana! Así, en contextos con uno o dos valores extremos, que por el motivo que sea (como heterocedasticidad), que puede surgir, LS podría mostrar un cambio importante en la verdadera estimación de la pendiente, especialmente cuando hay uno muy bajo y/o alto de la observación, como un notable debilidad. Wikipedia en regresión robusta hace un comentario de apoyo:
"En particular, menos plazas de las estimaciones para los modelos de regresión son muy sensibles a los valores extremos."
Con respecto a las aplicaciones, esto puede ser particularmente importante, por ejemplo, en la química basada en el análisis de los datos para predecir un llamado de reacción de la Tasa de la Ley (que se basa en la estimación de la pendiente).