Estaba siguiendo el curso de Machine Learning de la Universidad de Washington en Coursera, y hubo un punto que captó mi atención. El material era sobre el error de Generalización y el ejemplo era el clásico de estimar el precio de una casa dados los pies cuadrados como característica. En una parte el profesor dice
a diferencia del error de entrenamiento, no podemos calcular la generalización de generalización. Porque todo era relativo a esta verdadera distribución, la verdadera forma en que el mundo funciona
Es decir, ¿es realmente posible no calcular el error de generalización? Me pregunto si esto tiene que ver con el trade off de sesgo y varianza, pero ¿es realmente no computable este error? ¿por qué no podemos amenazarlo como un problema de optimización? Gracias por su ayuda de antemano.