Por ejemplo, cuando se codifica la B, inmediatamente se transmite un 1 porque cualquier secuencia de símbolos que comienza por B se codifica inicialmente con un 1. A continuación se expande el intervalo [0.50,1.00) (porque se ha transmitido un 1) al intervalo [0,1) y el proceso se repite con el siguiente símbolo de entrada.
Esto se hace para no perder precisión numérica a la hora de representar (usando un número finito de bits) los límites del intervalo.