Después de algo más de pensar que voy a hacer un intento de responder a mi propia pregunta. A partir del Obispo de Reconocimiento de patrones y el Aprendizaje de Máquina, p. 296, me tome las reglas para la construcción de nuevos Núcleos de validez de los Kernels. Deje $k_1$ válido Núcleo
$$ k(x_n,x_m) = f(x) k_1(x_n,x_m) f(x^T) $$
$$ k(x_n,x_m) = \exp(k_1(x_n,x_m)) $$
son, de nuevo, válido Núcleos. Ahora tenemos
$$\frac{\theta}{2} \lVert x_n-x_m \rVert^2 = \frac{\theta}{2} x_n^T x_n + \frac{\theta}{2} x_m^T x_m - \theta x_n^T x_m$$
Así
$$\exp (-\frac{\theta}{2} \lVert x_n-x_m \rVert^2)= \exp (-\frac{\theta}{2} x_n^T x_n) \exp (\theta x_n^T x_m) \exp (-\frac{\theta}{2} x_m^T x_m)$$
Por lo tanto, por la segunda regla de arriba y ya sabemos $x_n^T x_m$ es válido kernel, $\exp (\theta x_n^T x_m) $ es válido kernel si $\theta>0$, pero no si $\theta<0$. Por la primera regla, a continuación, $\exp (-\frac{\theta}{2} \lVert x_n-x_m \rVert^2)$ es válido kernel si $\theta>0$, pero no si $\theta<0$. No estoy seguro acerca de esto, sin embargo. Comentarios de bienvenida.