No entiendo la intuición detrás de por qué la mediana es la mejor estimación si vamos a juzgar la precisión de la predicción usando el Error Absoluto Medio. Supongamos que tienes una variable aleatoria $X$ y quieres predecir cuál será el siguiente $X$. Denotemos tu predicción como d.
Bajo el Error Cuadrático Medio, que es:
$\text{MSE} = (X - d)^2$
Sabemos que el MSE esperado, o la suma de los MSEs, se minimiza cuando $d$ es igual a la media o $E[X]$. Esto tiene sentido intuitivamente. El mejor predictor de una variable aleatoria es su media.
Sin embargo, bajo el Error Absoluto Medio, que es:
$\text{MAE} = |X - d|$
El MAE esperado o la suma de los MAEs se minimiza cuando $d$ es igual a la mediana de la variable aleatoria. Aunque el libro que estoy leyendo tiene una prueba sofisticada para mostrar por qué este es el caso, no entiendo intuitivamente por qué la mediana sería la mejor predicción. Tampoco entiendo por qué la media (o mediana) no sería la mejor elección para ambos.
1 votos
¿Por qué tiene sentido intuitivo que la media minimice el error cuadrático medio? Tienes razón, pero si no supiera eso, podría creer que la mediana lo hace.
1 votos
Como ejemplo concreto simple, intenta minimizar el error absoluto para el conjunto de datos $\{-1, 0, 3\}$, que tiene una mediana de 0 y una media de 1. Al "deslizar" tu estimación de izquierda a derecha, deberías ganar intuición sobre por qué la mediana es la mejor elección.
0 votos
@Dave Supongo que la forma en que lo pensé es que, si en promedio X produce E[X], y si tu estimación es E[X], entonces en promedio el MSE será 0 por lo que se minimiza. No estoy seguro si esa es la intuición correcta, pero puedes ver por qué cuando uso esa lógica en MAE, no tiene sentido.