Ok, aquí está la primicia: en primer lugar, eche un vistazo a mi clase en Berkeley. Las diapositivas para el GP de regresión debe ser breve en http://alex.smola.org/teaching/berkeley2012 donde puedo discutir esto con más detalle.
Para un GP de regresión puede integrar la latente GP y desde el modelo de observación y el estudio de los GP son tanto de Gauss, se obtiene una Gaussiana de nuevo. En matemáticas esto significa que
$$y = t + \epsilon.$$
Aquí $t$ se extrae de un médico de cabecera y $\epsilon$ son independientes de Gauss variables aleatorias. Una vez que usted tiene el GP de representación para $y$, usted puede simplemente condición observadas en las condiciones para obtener la varianza residual para el resto. Esto produce algo de la forma
$$E[y'|y] = \mu' + K_{x'x} K_{xx}^{-1} (y - \mu)$$
y la varianza es
$$K_{x'x'} - K_{x'x} K_{xx}^{-1} K_{xx'}.$$
Obviamente aquí hemos añadido el ruido de $\epsilon$ a la diagonal principal. Por la relevancia que las máquinas de vectores esto no es tan trivial, ya que asume un lugar diferente modelo de ruido. Por lo que no puede integrar a cabo las variables latentes de forma explícita. Eche un vistazo a mi libro "Aprendiendo con los Núcleos' o, alternativamente, Mike Inflexión del papel original para los detalles.