Cuando me adentré por primera vez en la teoría de la información, la información se medía o se basaba en la entropía de Shannon o, en otras palabras, la mayoría de los libros que leí antes hablaban de la entropía de Shannon. Hoy alguien me dijo que hay otra información llamada información de Fisher. Me confundí mucho. Intenté buscar en Google. Aquí están los enlaces, información de Fisher: https://es.wikipedia.org/wiki/Informaci%C3%B3n_de_Fisher y la entropía de Shannon se encuentra aquí https://es.wikipedia.org/wiki/Entrop%C3%ADa_(teor%C3%ADa_de_la_informaci%C3%B3n).
¿Cuáles son las diferencias y la relación entre la entropía de Shannon y la información de Fisher? ¿Por qué existen dos tipos de información allí?
Actualmente, mi idea es que parece que la información de Fisher es una perspectiva estadística mientras que la entropía de Shannon tiene una perspectiva probabilística.
Cualquier comentario o respuesta es bienvenido. Gracias.