En el análisis de regresión se encuentra una línea que se ajusta mejor al minimizar la suma de los errores al cuadrado.
Pero, ¿por qué al cuadrado ¿errores? ¿Por qué no usar el absoluto valor del error?
Me parece que con los errores de cuadratura, los más externos ganan más peso. ¿Por qué se justifica eso? Y si está justificado dar a los externos más peso, entonces ¿por qué darles exactamente este peso? ¿Por qué no tomar, por ejemplo, la menor suma de errores exponecionales?
Editar: No me interesa tanto el hecho de que pueda ser más fácil de calcular. Más bien la pregunta es: ¿la cuadratura de los errores resulta en una mejor línea de ajuste en comparación con el uso del valor absoluto del error?
Además, estoy buscando una respuesta en términos simples que pueda mejorar mi comprensión intuitiva.
1 votos
El error al cuadrado es como la varianza, que es más fácil de trabajar en la mayoría de los casos que el error absoluto, que es como la desviación estándar. Esta última incluye una raíz cuadrada.
1 votos
Algunas de las preguntas relacionadas en stats.SE: relevante Q1 ; relevante Q2 ; relevante Q3 ... intente algunas búsquedas para obtener más
1 votos
También hay que tener en cuenta el teorema de Gauss-Markov: es.wikipedia.org/wiki/Gauss%E2%80%93Teorema de Markov
0 votos
Probablemente por una combinación de tradición, simplicidad y comodidad. Los mínimos cuadrados son un algoritmo bien conocido, fácil de aprender y rápido de calcular, que se remonta a los tiempos de Gauß en el siglo XVIII (y probablemente se conocía incluso antes). No es hasta hace poco que han aparecido algoritmos rápidos para otros errores como la popular suma de valores absolutos (ell one norm).