1 votos

¿Cómo demostrar que la bondad del ajuste (significativamente) difiere?

Tengo un determinado modelo con el que quiero hacer algunas pruebas fuera de la muestra. Le permito hacer predicciones y luego recibo una estimación de la variable "RETORNO".

A continuación, aplico la siguiente regresión:

TRUE_RETURNS = c + b*ESTIMATED_RETURNS + e

Bajo estimaciones perfectas tendrías: c = 0 y b = 1

Pero me parece un poco tonto hacer la regresión y decir simplemente: mira, c no está cerca de 0 y tampoco b está cerca de 1, por lo que las predicciones fuera de muestra no son buenas. O alguna charla sin sentido sobre el R^2..

Me gustaría poder comparar las predicciones fuera de la muestra de varios conjuntos diferentes de predicciones. Es decir, quiero tener conjuntos predicciones_1, predicciones_2, predicciones_3 y predicciones_4 y poder concluir que las predicciones_1 se ajustan mucho mejor que las predicciones_2, por ejemplo.

Por lo tanto, me gustaría preguntar si alguien puede proporcionarme algo de inspiración sobre cómo evaluar adecuadamente la bondad del ajuste. Tal vez una prueba de probabilidad o algo así (¿o estoy completamente equivocado?)

Muchas gracias de antemano.

2voto

Lewian Puntos 296

Existen funciones de pérdida estándar para ello, como la media del valor absoluto (o cuadrado) de la predicción menos la verdad. Para un tratamiento más profundo, puede leer el capítulo 7 de este libro (Elementos de aprendizaje estadístico) , disponible gratuitamente en ese sitio web.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X