Estoy confundido acerca de las diferencias en las técnicas de regresión disponible.
Tomemos, por ejemplo, la regresión lineal. En este caso, se construye un modelo $y = \beta^Tx + \epsilon$ donde $\epsilon \sim N(0,\sigma^2)$. En un sentido, $y$ a continuación, se convierte en un "proceso Gaussiano", cuya media es $\beta^Tx$ , mientras que su función de covarianza es $k(x,x')=\sigma^2 \mathbb{1}_{x = x'}$.
Por otro lado, Gauss proceso de regresión (como en el GP de ML libro) es modelada como $y \sim N(m(x),k(x,x'))$ para algunos kernel/función de covarianza $k(x,x')$. Este tipo de modelo se utiliza para interpolar un conjunto de datos utilizando funciones de base que son el resultado de la función de covarianza.
La principal diferencia que veo es que la regresión lineal (o en realidad, la regresión generalizada de este formulario), se crea un modelo que no pasa a través de los puntos de datos sino que encuentra el modelo que tiene el "mejor ajuste". Por supuesto, el predictor no necesita ser lineal. Por otro lado, Gauss proceso de regresión utiliza acondicionado en Gaussiano vectores para encontrar un modelo que en realidad pasa a través de los puntos de datos.
Con esto en mente:
- Lo que realmente es Gaussiano proceso de regresión? Puede la regresión lineal con una distribución normal, $\epsilon$ todavía se considera Gaussiano proceso de regresión, como contraposición a la de Gauss proceso de regresión que interpola los datos (es decir, el kriging)? Estoy confundido porque Wikipedia muestra que Gaussiano proceso de regresión no necesita interpolar los puntos de datos como se muestra en la figura aquí: enlace.
Alguien me puede ayudar a aclarar esta confusión?