Originalmente publicado en estadísticas.SÍ , pero nunca recibió una respuesta para volver a colocar aquí.
Es una mala idea para normalizar el núcleo de la matriz? Con esto quiero decir que el método descrito en la página 113 de Shawe-Taylor & Cristianini del "Núcleo Métodos para el Análisis de patrones" (notación de matlab):
% original kernel matrix stored in variable K
% output uses the same variable K
% D is a diagonal matrix storing the inverse of the norms
D = diag(1./sqrt(diag(K)));
K = D * K * D;
Estoy específicamente pensando en la minería de texto, donde el núcleo está formado a partir de la $tf-idf$ matriz $T$ (es decir, $K = T T'$). La razón por la que me gustaría normalizar es que estoy pensando en la combinación de varios de estos núcleos (por ejemplo, de bigramas, trigramas, etc.) pero estoy consiguiendo algunos resultados extraños cuando lo hago.
Sumando los núcleos sin la normalización de los resultados en uno u otro dominante. (Yo podría usar una suma ponderada - tales como el uso de $1/||K||_F$ donde $||\cdot||_F$ es la norma de Frobenius pero esto parece un poco de un hack - este es sin supervisión de aprendizaje).