Yo creo que depende de cómo se va a utilizar.
Apenas para la referencia para otros lectores, si P Q de probabilidad de medidas, luego de Jensen-Shannon Divergencia es
J(P,Q)=12(D(P∣∣R)+D(Q∣∣R))
donde R=12(P+Q) es el punto medio de la medida y de D(⋅∣∣⋅) es el de Kullback-Leibler divergencia.
Ahora, yo estaría tentado a utilizar la raíz cuadrada de Jensen-Shannon Divergencia, ya que es una métrica, es decir, que satisface a todos los "intuitivo" propiedades de una medida de distancia.
Para más detalles, ver
Endres y Schindelin, Una nueva métrica para las distribuciones de probabilidad, IEEE Trans. en la Info. Tu., vol. 49, no. 3, Jul. 2003, pp 1858-1860.
Por supuesto, en cierto sentido, depende de lo que usted necesita para. Si todo lo que usted está utilizando para evaluar algunos pares medida, cualquier transformación monotónica de JSD iba a funcionar. Si usted está buscando algo más cercano a un "cuadrado de la distancia", entonces el JSD en sí es similar a la cantidad.
Por cierto, usted también podría estar interesado en la anterior pregunta y las respuestas asociadas y debates.