17 votos

Definición y origen de la "cruz de la entropía"

Sin citar fuentes, Wikipedia define la cruz-la entropía de distribuciones discretas $P$ $Q$

\begin{align} \mathrm{H}^{\times}(P; Q) &= -\sum_x p(x)\, \log q(x). \end{align}

Quién fue el primero en empezar a utilizar esta cantidad? Y quién inventó este término? Me miré en:

J. E. Costa y R. W. Johnson, "Axiomático derivación del principio de máxima entropía y el principio de la cruzada mínima entropía," la Teoría de la Información, IEEE transactions, vol. 26, no. 1, pp 26-37, Jan. 1980.

He seguido su introducción a

A. Wehrl, "propiedades Generales de la entropía," los Comentarios de la Física Moderna, vol. 50, no. 2, pp 221-260, Abr. 1978.

que nunca usa el término.

Tampoco

S. de Kullback y R. Leibler, "Sobre la información y la autosuficiencia," Los Anales de la Estadística Matemática, vol. 22, no. 1, pp 79-86, 1951.

Me miré en

T. M. de la Cubierta y J. A. Thomas, Elementos de la Teoría de la Información (Wiley Series en las Telecomunicaciones y el Procesamiento de la Señal). Wiley-Interscience, 2006.

y

I. Bueno, "de Máxima Entropía para la Formulación de Hipótesis, Especialmente para Multidimensional de Tablas de Contingencia," Los Anales de la Estadística Matemática, vol. 34, no. 3, pp 911-934, 1963.

pero ambos papeles definir cruz-entropía a ser sinónimo de KL-divergencia.

El artículo original

C. E. Shannon, "Una Teoría Matemática de la Comunicación, la" Bell system technical journal, vol. 27, 1948.

No se menciona la cruz de la entropía (y tiene una extraña definición de "relación de la entropía": "La relación de la entropía de una fuente para el valor máximo que podría tener, mientras que todavía restringido a los mismos símbolos").

Finalmente, miré en algunos libros antiguos y documentos por Tribus.

¿Alguien sabe lo que la ecuación anterior se llama, y que lo inventó o tiene una buena presentación de la misma?

8voto

Ryan Singer Puntos 38

Parece estar estrechamente relacionado con el concepto de Kullback–Leibler divergencia (ver Kullback y Leibler, 1951). En su artículo de Kullback y Leibler discutir el promedio de la información para discriminar entre las dos hipótesis (que se define como $I_{1:2}(E)$ en la nca. $2.2-2.4$) y citar las páginas 18-19 de Shannon y Weaver es La Teoría Matemática de la Comunicación (1949) y p. 76 de Wiener de la Cibernética (1948).

EDITAR:

Adicional alias incluyen el de Kullback-Leibler información medida, la información relativa medida, de la cruz-la entropía, I-divergencia y Kerridge inexactitud.

6voto

andynormancx Puntos 234

Gracias a @Itamar la sugerencia, he encontrado una mención en:

I. J. Good, "algo de la Terminología y la Notación de la Teoría de la Información", Actas del IEE - Parte C: Monografías, vol. 103, no. 3, pp 200-204, Mar. 1956.

Todavía sería realmente útil para mí para encontrar una buena presentación de la cruz de entropía.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X