Quiero hacer una regresión de proceso gaussiano para una función de densidad $f(x)$ con una función kernel gaussiana $k(x, x')$ .
Dados los datos de entrenamiento $\mathbf{x} = (x_1, x_2, \dots, x_N)$ y $\mathbf{f} = (f(x_1), f(x_2), \dots, f(x_N))$ la predicción en un nuevo punto $x^*$ es: $$ f(x^*) = \mathbf{k}^T \mathbf{C}_N^{-1}\mathbf{f} $$ donde $$ \mathbf{k} = \begin{bmatrix} k(x_1, x^*)\\ \vdots\\ k(x_N, x^*) \end{bmatrix} \mathbf{C}_N = \begin{bmatrix} k(x_1, x_1) &\dots &k(x_1, x_N)\\ &\vdots\\ k(x_N, x_1) &\dots &k(x_N, x_N) \end{bmatrix} $$ Como se menciona en el libro de aprendizaje automático de Bishop, puedo reescribir $$ f(x^*) = \sum_{i = 1}^N a_i k(x_i, x^*) $$ con $a_i$ es el $i^{th}$ componente de $\mathbf{C}_N^{-1}\mathbf{f}$ .
Como utilizo un kernel gaussiano $k$ puedo muestrear directamente mi función de densidad, si todos $a_i$ son positivos.
Mi pregunta es si existe una forma de restringir los positivos $a_i$ en la regresión GP?