Ejemplo 1: Calcular la información asociada a la caída de una moneda (suceso estadísticamente independiente).
Para calcular la información asociada a la caída de una moneda, se debe primero determinar la entropía de la fuente. En este caso, como hay dos posibles resultados equiprobables (cara o cruz), la entropía es H = log2(2) = 1 bit.
Por lo tanto, la información asociada a cada lanzamiento de moneda es 1 bit.
Ejemplo 2: Supongamos que dos fuentes tienen la misma entropía, pero una es más rápida que la otra, es decir, produce más símbolos por unidad de tiempo.
En este ejemplo, se menciona que dos fuentes tienen la misma entropía pero producen diferentes cantidades de símbolos por unidad de tiempo. Para calcular su tasa de información media en bits por segundo "bpsé", se utiliza la fórmula R = H / o \[bits/seg\], donde H es la entropía y o es la duración promedio del símbolo. La fuente más rápida tendrá una tasa de información mayor que la fuente más lenta.
Ejemplo 9: Un sistema de facsímil transmite una imagen que tiene 250 líneas horizontales y 200 puntos por líneas. Si cada punto puede tomar 32 niveles equiprobable de brillo, calcular la cantidad de información de la imagen.
Para calcular la cantidad de información en esta imagen, se debe primero determinar el número total de posibles combinaciones entre los niveles equiprobables del brillo en cada punto. En este caso, hay 32 posibles niveles para cada punto y hay un total de
**250 x 200 = 50,000** puntos en la imagen. Por lo tanto, el número total de posibles combinaciones es **32^50000.** Para calcular la cantidad de información, se utiliza la fórmula **I = log2(N)**, donde N es el número de posibles combinaciones. En este caso**, I = log2(32^50000) = 166,096 bits**. Por lo tanto, la cantidad de información en esta imagen es de 166,096 bits.
250 \* 200 = 50000
I = log2 N E = log2 3250000 = 50.000 \* log2 32 =
= 50.000 \* 5 = 250.000 \[bit1\]