La entropía es una medida de la cantidad de bits de información queuna fuente de información proporciona en promedio, con cada símbologenerado. Por definición, la entropía H(S) de una fuente S se calculacomo
(11.2)
donde N es el tamaño del alfabeto fuente (número de símbolos diferentes). Puedeencontrarse una implementación del cálculo de la entropía en el Apéndice39.13.
La entropía se mide en bits de información por símbolo.
La finalidad de la compresión estadística es la de encontrar una codificación tal queel número de bits de datos en promedio coincida con la entropía de lafuente.