En la pg. 34 de Introducción a la Estadística de Aprendizaje:
A pesar de que la prueba matemática está más allá del alcance de este libro, es posible demostrar que el esperado de la prueba MSE, para un determinado valor de $x_0$, siempre se puede descomponer en la suma de tres cantidades fundamentales: la varianza de $\hat{f}(x_0)$, el cuadrado del sesgo de $\hat{f}(x_0)$ y la varianza de los términos de error $\epsilon$. Es decir,
$$ E\left(y_0 - \hat{f}(x_0)\right)^2 = Var(\hat{f}(x_0)) + [Bias(\hat{f}(x_0))]^2 + Var(\epsilon) $$
[...]La varianza se refiere a la cantidad por la que $\hat{f}$ cambiaría si se estima que el uso de un diferente conjunto de datos de entrenamiento.
Pregunta: Desde $Var(\hat{f}(x_0))$ parece denotar la varianza de funciones, ¿qué significa esto formalmente?
Es decir, estoy familiarizado con el concepto de la varianza de una variable aleatoria $X$, pero, ¿qué acerca de la varianza de un conjunto de funciones? Este puede ser pensado sólo como la variación de otra variable aleatoria cuyos valores se toman la forma de las funciones?