15 votos

Agrupamiento: se Debe utilizar el de Jensen-Shannon Divergencia o su cuadrado?

Yo soy la agrupación de las distribuciones de probabilidad mediante la Propagación de Afinidad algoritmo, y tengo el plan de uso de Jensen-Shannon Divergencia como mi distancia métrica.

Es correcto el uso de JSD a sí misma como la distancia, o JSD cuadrado? Por qué? ¿Qué diferencias sería el resultado de la elección de uno u otro?

20voto

giulio Puntos 166

Yo creo que depende de cómo se va a utilizar.

Apenas para la referencia para otros lectores, si $P$ $Q$ de probabilidad de medidas, luego de Jensen-Shannon Divergencia es $$ J(P,Q) = \frac{1}{2} \big( D(P \mid\mid R) + D(Q\mid\mid R) \big) $$ donde $R = \frac{1}{2} (P + Q)$ es el punto medio de la medida y de $D(\cdot\mid\mid\cdot)$ es el de Kullback-Leibler divergencia.

Ahora, yo estaría tentado a utilizar la raíz cuadrada de Jensen-Shannon Divergencia, ya que es una métrica, es decir, que satisface a todos los "intuitivo" propiedades de una medida de distancia.

Para más detalles, ver

Endres y Schindelin, Una nueva métrica para las distribuciones de probabilidad, IEEE Trans. en la Info. Tu., vol. 49, no. 3, Jul. 2003, pp 1858-1860.

Por supuesto, en cierto sentido, depende de lo que usted necesita para. Si todo lo que usted está utilizando para evaluar algunos pares medida, cualquier transformación monotónica de JSD iba a funcionar. Si usted está buscando algo más cercano a un "cuadrado de la distancia", entonces el JSD en sí es similar a la cantidad.

Por cierto, usted también podría estar interesado en la anterior pregunta y las respuestas asociadas y debates.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X