He aprendido sobre entropía en mis clases de teoría de la información. La definición que obtuve de los libros de texto era el contenido promedio de información en una secuencia de mensajes, etc. Pero en uno de los videos del MIT relacionados con la teoría de la información, el profesor dijo que la entropía es la información que no tenemos respecto al mensaje. ¿Son ambas cosas iguales? Otro punto de vista sobre la entropía es la cantidad de desorden asociada con el mensaje. Mis dudas son las siguientes:
-
Si decimos que la entropía del idioma inglés es de 2 bits y la del hindi es de 3, ¿qué significa eso?
-
Los datos comprimidos normalmente tienen una entropía menor. ¿Significa eso que el desorden asociado con los datos comprimidos es menor?
-
¿Cuál es la importancia de la entropía relacionada con los genes (en biología) y la música, etc.?
-
Por último, ¿cómo está relacionada la fuerza de una contraseña con la entropía?
Se agradece cualquier ayuda, enlaces o referencias.
NOTA MUY IMPORTANTE: Las respuestas relacionadas con mi segunda pregunta están creando cierta confusión. En primer lugar, debo haber especificado sobre el método de compresión (con pérdida o sin pérdida). Entonces estaba discutiendo esta pregunta con uno de mis amigos. Así que su argumento es el siguiente (y estoy feliz de aceptarlo, porque parece ser más lógico que otras explicaciones aquí.): Los datos comprimidos sin pérdidas y los datos originales tendrán la misma cantidad de entropía, ya que ambos tienen el mismo contenido de información. Pero si la compresión es con pérdida (como las de JPEG), tendrá menos entropía que la entropía de los datos originales, porque la compresión con pérdida ha perdido cierta cantidad de información en el proceso. Invito a aclaraciones/correcciones en forma de respuesta si alguien tiene una opinión diferente o puede dar una mejor respuesta.
0 votos
Un buen enlace relacionado con la pregunta es uwyo.edu/moorhouse/courses/5590/entropy_comparison.pdf