Tengo un determinado modelo con el que quiero hacer algunas pruebas fuera de la muestra. Le permito hacer predicciones y luego recibo una estimación de la variable "RETORNO".
A continuación, aplico la siguiente regresión:
TRUE_RETURNS = c + b*ESTIMATED_RETURNS + e
Bajo estimaciones perfectas tendrías: c = 0 y b = 1
Pero me parece un poco tonto hacer la regresión y decir simplemente: mira, c no está cerca de 0 y tampoco b está cerca de 1, por lo que las predicciones fuera de muestra no son buenas. O alguna charla sin sentido sobre el R^2..
Me gustaría poder comparar las predicciones fuera de la muestra de varios conjuntos diferentes de predicciones. Es decir, quiero tener conjuntos predicciones_1, predicciones_2, predicciones_3 y predicciones_4 y poder concluir que las predicciones_1 se ajustan mucho mejor que las predicciones_2, por ejemplo.
Por lo tanto, me gustaría preguntar si alguien puede proporcionarme algo de inspiración sobre cómo evaluar adecuadamente la bondad del ajuste. Tal vez una prueba de probabilidad o algo así (¿o estoy completamente equivocado?)
Muchas gracias de antemano.