6 votos

Todos Los Fines De Entropía Muestral

Cuando da muestras de una variable aleatoria discreta, la entropía de la distribución puede ser estimado por $- \sum \hat{P_i} \log{\hat{P_i}}$ donde $\hat{P_i}$ es el ejemplo de estimación de la frecuencia de la $i$th valor. (esto es una constante determinada por la base del registro.) Esta estimación no debe ser aplicado a las observaciones de una distribución continua, al menos ingenuamente, porque daría lugar a un valor que depende únicamente del tamaño de la muestra.

Beirlant et al describen una serie de enfoques para el problema continuo, incluyendo estimaciones basadas en CDF empírica, vecino más cercano, las distancias y las $m$-espaciado de estimación, el cual es dado por $$\frac{1}{n}\sum_{i=1}^{n-m}\log{(\frac{n}{m}(X_{(i+m)} - X_{(i)}))}$$, where $X_ {i)}$ is the $i$th order statistic of the sample, and $m$ varies in a certain way with $n$. It is not clear how this estimate is to be computed in the presence of ties, i.e. it does not appear to be applicable to discrete distributions. (a naive correction for ties (drop terms which have $\log{0}$) parece dar un estimador que no depende de la frecuencia relativa de las clases, sólo sus valores, lo que parece malo.)

La pregunta: ¿hay un 'all-purpose' estimador de que puede tratar con discretos y continuos (o mezclado) de las distribuciones?

23voto

David Pokluda Puntos 4284

La entropía es la entropía con respecto a una medida

Como notado en la respuesta a esta pregunta http://mathoverflow.net/questions/33088/entropy-of-a-general-prob-measure/33090#33090 la entropía se define únicamente con respecto a una medida dada. Por ejemplo discretos entropía es la entropía con respecto a contar de la medida.

Ejemplo de entropía debe ser una estimación de un predefinidos de la entropía.

Creo que la idea de entropía muestral puede ser generalizado a cualquier tipo de entropía, pero usted necesita saber que la entropía está tratando de estimar antes de estimar.

Ejemplo de la entropía con respecto a contar+lebesgues

Por ejemplo, si usted está tratando de estimar la entropía con respecto a la suma de los lebesgues medida en $[0,1]$ y el recuento medida en ${0,1}$ una buena estimación, sin duda (en mi intuición) es la suma de las dos estimaciones que usted menciona en su pregunta (con $i=0,1$ en el primer suma).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X