Yo soy la comparación de dos distribuciones con KL divergencia que me devuelve no normalizados número que, de acuerdo a lo que he leído acerca de esta medida, es la cantidad de información que se requiere para transformar una hipótesis en la otra. Tengo dos preguntas:
a) ¿hay una manera de cuantificar una divergencia KL para que tenga más sentido la interpretación, por ejemplo, como un tamaño del efecto o un R^2? Cualquier forma de estandarización?
b) En R, cuando se utiliza KLdiv (flexmix paquete), se puede establecer el 'esp' valor (estándar esp=1e-4), que establece todos los puntos menor que el esp estándar con el fin de proporcionar estabilidad numérica. He estado jugando con diferentes esp valores y, para mi conjunto de datos, me estoy haciendo una cada vez mayor divergencia KL menor será el número que elija. ¿Qué está pasando? Yo esperaría que los más pequeños de la esp, el más fiable de los resultados debe ser, ya que vamos a más "valores reales" llegar a ser parte de la estadística. No? Tengo que cambiar el esp ya que de lo contrario no calcula la estadística, sino simplemente se muestra como NA en la tabla de resultados...
Gracias de antemano, Ampleforth