Después de algo más de pensar que voy a hacer un intento de responder a mi propia pregunta. A partir del Obispo de Reconocimiento de patrones y el Aprendizaje de Máquina, p. 296, me tome las reglas para la construcción de nuevos Núcleos de validez de los Kernels. Deje k_1 válido Núcleo
k(x_n,x_m) = f(x) k_1(x_n,x_m) f(x^T)
k(x_n,x_m) = \exp(k_1(x_n,x_m))
son, de nuevo, válido Núcleos. Ahora tenemos
\frac{\theta}{2} \lVert x_n-x_m \rVert^2 = \frac{\theta}{2} x_n^T x_n + \frac{\theta}{2} x_m^T x_m - \theta x_n^T x_m
Así
\exp (-\frac{\theta}{2} \lVert x_n-x_m \rVert^2)= \exp (-\frac{\theta}{2} x_n^T x_n) \exp (\theta x_n^T x_m) \exp (-\frac{\theta}{2} x_m^T x_m)
Por lo tanto, por la segunda regla de arriba y ya sabemos x_n^T x_m es válido kernel, \exp (\theta x_n^T x_m) es válido kernel si \theta>0, pero no si \theta<0. Por la primera regla, a continuación, \exp (-\frac{\theta}{2} \lVert x_n-x_m \rVert^2) es válido kernel si \theta>0, pero no si \theta<0. No estoy seguro acerca de esto, sin embargo. Comentarios de bienvenida.