¿Por qué usar el Error Cuadrático Medio (RMSE) en lugar del Error Absoluto Medio (MAE)??
He estado investigando el error generado en un cálculo: inicialmente calculé el error como un Error Normalizado Cuadrado Medio Raíz.
Mirando un poco más de cerca, veo que al elevar al cuadrado el error se da más peso a los errores mayores que a los más pequeños, sesgando la estimación del error hacia el valor atípico. Esto es bastante obvio en retrospectiva.
¿En qué caso el Error Cuadrático Medio sería una medida de error más apropiada que el Error Absoluto Medio? Este último me parece más apropiado o ¿me estoy perdiendo algo?
Para ilustrar esto, he adjuntado un ejemplo a continuación:
-
El gráfico de dispersión muestra dos variables con una buena correlación,
-
los dos histogramas a la derecha muestran el error entre Y (observado) y Y (predicho) utilizando RMSE normalizado (arriba) y MAE (abajo).
No hay valores atípicos significativos en estos datos y MAE da un error más bajo que RMSE. ¿Hay alguna razón, aparte de MAE siendo preferible, para usar una medida de error sobre la otra?