8 votos

Cómo definir la dispersión de un vector?

Me gustaría construir una medida para calcular la dispersión de un vector de longitud $k$.

Deje $X = [x_i]$ ser un vector de longitud $k$ tal que existe una $x_i \neq 0$ . Suponga $x_i \geq 0$ todos los $i$.

Una medida que me encontré se define como $$\frac{\sqrt{k} - \frac{\|X\|_1}{{\|X\|_2}}} {\sqrt{k} -1}\;,$$ where $\|X\|_1$ is $L_1$ norm and $\|X\|_2$ is $L_2$ norma.

Aquí, $\operatorname{Sparseness}(X) = 0$ cada vez que el vector es densa (todos los componentes son iguales y distinto de cero) y $\operatorname{Sparseness}(X) = 1$ cada vez que el vector es escasa (sólo uno de los componentes no es cero).

Este post sólo explica el al $0$ $1$ logrado por la mencionada medida.

¿Hay alguna otra función de la definición de la dispersión del vector.

8voto

sanity Puntos 249

Usted podría, por supuesto, generalizar su medida actual

\begin{align} S(X) = \frac{\frac{k^{(1/m)}}{k^{(1/n)}} -\frac{\|X\|_m}{\|X\|_n} } {\frac{k^{(1/m)}}{k^{(1/n)}}-1} \end{align}

mientras que la preservación de sus propiedades especificadas.

Un interesante caso especial podría ser $m = 1, n \to \infty$, en cuyo caso la expresión se simplifica a

\begin{equation} S(X) = \frac{k-\frac{\|X\|_1}{\|X\|_c}}{k-1} \end{equation}

donde $c = \infty$, (por alguna razón, mathjax negado a pagar cuando inserté $\infty$ directamente en la fracción)

4voto

zengr Puntos 914

Hay una definición de dispersión, que se utiliza (entre otros) en el comprimido de detección de la literatura, véase, por ejemplo, aquí.

Un vector $x\in \mathbb{C}^k$ se llama $s$-dispersos, si $|| x ||_0 = |\text{supp}(x)| \leq s$, es decir, tiene en la mayoría de las $s$ cero entradas. Denotar por $\Sigma_s$ el conjunto de todos los vectores. A continuación, el $s$plazo aproximación de error de un vector $x\in \mathbb{C}^k$ se define como $$ \sigma_s(x)_p = \min_{y\in\Sigma_s} ||x-y||_p. $$

Ahora, esta cantidad es igual a $0$, si el vector $x$ $s$- dispersos, y será mayor que $0$ lo contrario. Tenga en cuenta que ahora tiene dos parámetros de $s$ $p$ a sintonizar esta "medida". Claramente, usted consigue su definición de dispersión si se establece $s=1$.

3voto

dtldarek Puntos 23441

Descargo de responsabilidad: Este post considera que el caso en el que no te importa algo de esfuerzo computacional para obtener buenos escasez de valor. Por algo nuevo, por favor vaya a la parte 2.

Parte 1

Estoy de acuerdo con Mikael, que tipo de generalización es agradable, lo que es más, con Mikael fórmula es intuitiva a partir de donde vino: el más básico concepto de vector de dispersión sería $$\frac{\text{number of indices $k$ such that }X_k = 0}{\text{total number of indices}}.$$

Sin embargo, esta definición $\langle 0, 0, \ldots, 0\rangle$ es escasa, pero de vectores $\langle c, c, \ldots, c \rangle$ no lo es. Sin embargo, es fácil solucionarlo: $$\frac{\text{number of indices on which }X_k - c = 0}{\text{total number of indices}}\,,$$ donde $c$ es de algunos medios de $X$, por ejemplo,$c = \|X\|_\infty$. El problema con esta medida es que no es fácil contar el número de índices. Para aliviar el por que, se podría aproximar el número de índices por $\frac{\|X\|_1}{\|X\|_\infty}$. Naturalmente que tenemos algunos de normalización, y por el que llegamos a Mikael del caso especial: $$\frac{k-\frac{\|X\|_1}{\|X\|_\infty}}{k-1}.$$

Pero el promedio tomamos como ejemplo $x = \|X\|_\infty$ no es el único. Del mismo modo podríamos aproximar el número de índices en diferentes maneras: $\frac{\|X\|_m}{\|X\|_n}$ lo haría para cualquier $m < n$, y la normalización se acaba de $$\frac{\frac{\|C\|_m}{\|C\|_n}-\frac{\|X\|_1}{\|X\|_\infty}}{R_\max-R_\min}, R_\max = \frac{\|C\|_m}{\|C\|_n}, R_\min = \frac{\|D\|_m}{\|D\|_n},$$ donde $C = \langle c, c, \ldots, c \rangle$ $D = \langle c, 0, 0, \ldots, 0 \rangle$ cualquier $c \neq 0$.

Parte 2

Aún así, esta medida es bastante raro, porque intuitivamente que más depende de los tamaños de los valores, de cuántos números diferentes que hay. No estoy seguro de que esta es una propiedad que queramos tener. Hay una medida que puede tener en cuenta, es decir, medida basada en la entropía. La interpretación de $X$ de las muestras, se puede calcular el $$ -\sum_i P(X = i) \log_k P(X = i) .$$

Para suavizar un poco elija cualquier distribución que usted desea (mejor específicos para su aplicación), por ejemplo,$F_\mu = N(\mu, \sigma^{2})$, $$F = \frac{1}{k}\sum_i F_{X_i},$$ y, a continuación, calcular la entropía diferencial ($f$ es la función de densidad de $F$): $$-\int_\mathbb{R} f(x) \ln f(x) \ dx$$ o incluso mejor relación de la entropía si usted tiene alguna referencia de medida (por ejemplo, el mismo $F_\mu$ ajustado un poco podría hacer el truco). Por supuesto, todo esto tiene que ser escalados a $[0,1]$ lo que hace que las fórmulas aún más desagradable, sin embargo, en mi opinión, que las capturas de la noción de escasez bastante bueno. Por último, se pueden combinar los dos enfoques en una infinidad de maneras, para obtener aún más la dispersión de los modelos!

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X