La "predicción" que utiliza la estructura del espacio de Hilbert es, como dice Michael Chernick más arriba, la proyección ortogonal de $Y_{t+1}$ en el subespacio generado por los "predictores" $\{ Y_u, u \leq t\}$ .
Se trata de una regresión lineal en el sentido poblacional y no lo mismo que la proyección ortogonal sobre $L^2(\sigma(Y_t, Y_{t-1}, \cdots))$ es decir, la expectativa condicional con respecto a $\sigma(Y_t, Y_{t-1}, \cdots)$ . Este último subespacio es en general mucho mayor que el generado por $\{ Y_u, u \leq t\}$ .
Un cálculo explícito es sólo álgebra lineal. Geométricamente, un espacio de Hilbert no es diferente de $\mathbb{R}^n$ con el producto interior euclidiano (excepto que no es localmente compacto, pero eso no es relevante aquí).
Denotemos la función de autocovarianza de ${Y_t}$ por $\gamma(h)$ . La predicción de un paso adelante significa encontrar $\phi_u$ , $u = 1, 2, \cdots$ s.t.
$$ \|Y_{t+1} - \sum_{u \geq 1} \phi_u Y_{t+1-u}\|^2 $$
se minimiza. Si $\langle Y_s, Y_s + h \rangle = \gamma(h) = 0$ para todos $h > p$ entonces
$$ \begin{bmatrix} \gamma(0) & \gamma(1) & \cdots & \gamma(p-1) \\ \gamma(1) & \gamma(0) & \vdots & \gamma(p-2) \\ \vdots & \vdots & \ddots & \vdots \\ \gamma(p-1) & \gamma(p-2) &\cdots &\gamma(0) \end{bmatrix} \begin{bmatrix} \phi_1 \\ \phi_2 \\ \vdots \\ \phi_p \end{bmatrix} = \begin{bmatrix} \gamma(1) \\ \gamma(2) \\ \vdots \\ \gamma(p) \end{bmatrix}. $$
Suponiendo que la matriz del lado izquierdo es definida positiva, inviértela y ya está. Para $n$ -paso por delante de la predicción, desplazar el lado derecho hacia delante en $n$ .
En el caso general de que $\gamma$ no tiene soporte finito pero, digamos, es absolutamente sumable, tomando matrices de tamaño creciente se obtiene una secuencia aproximada.