Para empezar, por favor vaya a través de esta pregunta con respecto a la medición de la falta de uniformidad en las distribuciones de probabilidad.
Entre varias buenas respuestas, user495285 ha sugerido una heurística de simplemente tomar la L2 norma de un vector cuyos valores agregar a 1. Yo me he encontrado en mis experimentos que realmente funciona muy bien para la mayoría de las aplicaciones prácticas y, generalmente, es performante.
Ahora estoy en el proceso de escribir un artículo acerca de un algoritmo de aprendizaje de máquina, que hace uso de este heurístico. Sin embargo, tengo que dar al menos algunos antecedentes que explican por qué esta heurística funciona razonablemente bien.
Dado que la toma de L2 normas para este propósito, es probablemente sólo una heurística, entiendo que no hay una base teórica sólida, pero que sin embargo necesitan una intuición sobre lo que podría estar pasando, así que por lo menos puedo explicar en el papel y soy claro con respecto a lo que está pasando. Idealmente, si hay una explicación adecuada disponible que puedo citar directamente, la amabilidad de compartirlo aquí.
Miré la web y podría encontrar algunos documentos que hablan sobre el uso de la L2 normas en el contexto de la medición de la uniformidad, pero no estoy seguro de si dan una explicación intuitiva de por qué funciona y si son citables. Aquí están los documentos:
- Examen de la Homogeneidad de las Distribuciones
- Relación y Diferencia de la l1 y la l2 Normas y Dispersas Representación Coherente con los Diccionarios
- Sublinear algoritmos en tiempo
Además, si usted tiene otras ideas acerca de cómo medir la no uniformidad en la distribución o usted podría decir por qué cierta medida es mejor que los demás, por favor hágamelo saber.