Descargo de responsabilidad: Este post considera que el caso en el que no te importa algo de esfuerzo computacional para obtener buenos escasez de valor. Por algo nuevo, por favor vaya a la parte 2.
Parte 1
Estoy de acuerdo con Mikael, que tipo de generalización es agradable, lo que es más, con Mikael fórmula es intuitiva a partir de donde vino: el más básico concepto de vector de dispersión sería $$\frac{\text{number of indices $k$ such that }X_k = 0}{\text{total number of indices}}.$$
Sin embargo, esta definición $\langle 0, 0, \ldots, 0\rangle$ es escasa, pero de vectores $\langle c, c, \ldots, c \rangle$ no lo es. Sin embargo, es fácil solucionarlo:
$$\frac{\text{number of indices on which }X_k - c = 0}{\text{total number of indices}}\,,$$
donde $c$ es de algunos medios de $X$, por ejemplo,$c = \|X\|_\infty$. El problema con esta medida es que no es fácil contar el número de índices. Para aliviar el por que, se podría aproximar el número de índices por $\frac{\|X\|_1}{\|X\|_\infty}$. Naturalmente que tenemos algunos de normalización, y por el que llegamos a Mikael del caso especial: $$\frac{k-\frac{\|X\|_1}{\|X\|_\infty}}{k-1}.$$
Pero el promedio tomamos como ejemplo $x = \|X\|_\infty$ no es el único. Del mismo modo podríamos aproximar el número de índices en diferentes maneras:
$\frac{\|X\|_m}{\|X\|_n}$ lo haría para cualquier $m < n$, y la normalización se acaba de $$\frac{\frac{\|C\|_m}{\|C\|_n}-\frac{\|X\|_1}{\|X\|_\infty}}{R_\max-R_\min}, R_\max = \frac{\|C\|_m}{\|C\|_n}, R_\min = \frac{\|D\|_m}{\|D\|_n},$$
donde $C = \langle c, c, \ldots, c \rangle$ $D = \langle c, 0, 0, \ldots, 0 \rangle$ cualquier $c \neq 0$.
Parte 2
Aún así, esta medida es bastante raro, porque intuitivamente que más depende de los tamaños de los valores, de cuántos números diferentes que hay. No estoy seguro de que esta es una propiedad que queramos tener. Hay una medida que puede tener en cuenta, es decir, medida basada en la entropía. La interpretación de $X$ de las muestras, se puede calcular el $$ -\sum_i P(X = i) \log_k P(X = i) .$$
Para suavizar un poco elija cualquier distribución que usted desea (mejor específicos para su aplicación), por ejemplo,$F_\mu = N(\mu, \sigma^{2})$, $$F = \frac{1}{k}\sum_i F_{X_i},$$
y, a continuación, calcular la entropía diferencial ($f$ es la función de densidad de $F$):
$$-\int_\mathbb{R} f(x) \ln f(x) \ dx$$
o incluso mejor relación de la entropía si usted tiene alguna referencia de medida (por ejemplo, el mismo $F_\mu$ ajustado un poco podría hacer el truco). Por supuesto, todo esto tiene que ser escalados a $[0,1]$ lo que hace que las fórmulas aún más desagradable, sin embargo, en mi opinión, que las capturas de la noción de escasez bastante bueno. Por último, se pueden combinar los dos enfoques en una infinidad de maneras, para obtener aún más la dispersión de los modelos!