estudiando para el parcial
Símbolos: Representaciones gráficas que se utilizan para comunicar información. Los símbolos pueden ser imágenes, signos, letras, números o cualquier otro elemento visual que tenga un significado específico.
Datos: Hechos o estadísticas que se recopilan y se analizan para obtener información. Los datos pueden ser numéricos o no numéricos y se utilizan para tomar decisiones informadas en una variedad de campos, como la ciencia, la tecnología, los negocios y la política.
se establecen las siguientes fórmulas para entender el cálculo de la cantidad de información y las fuentes:
Cantidad de información (I): Es la cantidad mínima de bits necesarios para transmitir un mensaje determinado. Se calcula mediante la siguiente fórmula:
Donde P es la probabilidad del mensaje.
Entropía (H): Es una medida de la incertidumbre en una fuente. Se calcula mediante la siguiente fórmula:
Donde P(x) es la probabilidad del símbolo x en la fuente.
Redundancia (R): Es una medida de cuánta información adicional se transmite en una fuente más allá de lo necesario para transmitir el mensaje. Se calcula mediante la siguiente fórmula:
Donde Hmax es el máximo posible valor de entropía para una fuente dada.
En resumen, estas fórmulas son fundamentales para entender cómo se puede cuantificar y medir la cantidad mínima de bits necesarios para transmitir un mensaje, así como también cómo se puede medir la incertidumbre y redundancia en una fuente.
se define la cantidad de información como:
Donde N es el número de alternativas posibles y E es el número de elementos que componen cada alternativa. Esta fórmula establece que la cantidad de información necesaria para transmitir un mensaje depende del número de alternativas posibles y del número de elementos que componen cada alternativa.
Por ejemplo, si tenemos una fuente que emite dos mensajes diferentes con igual probabilidad (P=1/2), entonces necesitamos un bit para transmitir cada uno (0 o 1). En este caso, N=2 (dos alternativas posibles) y E=1 (un elemento en cada alternativa), por lo que la cantidad de información necesaria es:
En cambio, si tenemos una fuente que emite cuatro mensajes diferentes con igual probabilidad (P=1/4), entonces necesitamos dos bits para transmitir cada uno (00, 01, 10 o 11). En este caso, N=4 (cuatro alternativas posibles) y E=2 (dos elementos en cada alternativa), por lo que la cantidad de información necesaria es:
En resumen, la fórmula para calcular la cantidad de información establece cómo se puede cuantificar la cantidad mínima de bits necesarios para transmitir un mensaje en función del número de alternativas posibles y el número de elementos en cada alternativa.