信息论



信息是通信系统的源头,无论是模拟的还是数字的。信息论是研究信息编码以及信息量化、存储和通信的一种数学方法。

事件发生的条件

如果我们考虑一个事件,它有三种发生的条件。

  • 如果事件没有发生,则处于不确定性状态。

  • 如果事件刚刚发生,则处于惊讶状态。

  • 如果事件发生了一段时间,则处于拥有某些信息的状态。

因此,这三种状态发生在不同的时间。这些状态的差异有助于我们了解事件发生概率的知识。

当我们观察一个事件发生的可能性时,无论它是多么令人惊讶或不确定,这意味着我们试图了解来自事件源的平均信息量。

可以定义为每个信源符号的平均信息量的度量。信息论之父克劳德·香农给出了一个公式:

$$H = -\sum_{i} p_i\log_{b}p_i$$

其中$p_i$是给定字符流中第i个字符出现的概率,b是所用算法的基数。因此,这也称为香农熵

观察信道输出后,关于信道输入剩余的不确定性量称为条件熵。它用$H(x \arrowvert y)$表示。

离散无记忆信源

一个数据以连续间隔发出,且与先前值无关的信源,可以称为离散无记忆信源

这个信源是离散的,因为它不是在连续时间间隔内考虑的,而是在离散时间间隔内考虑的。这个信源是无记忆的,因为它在每一时刻都是新的,而不考虑先前的值。

信源编码

根据定义,“给定一个熵为$H(\delta)$的离散无记忆信源,任何信源编码的平均码字长度$\bar{L}$都满足$\bar{L}\geq H(\delta)$”。

简单来说,码字(例如:QUEUE的摩尔斯电码是 -.- ..- . ..- .)总是大于或等于信源码(例子中的QUEUE)。这意味着码字中的符号大于或等于信源码中的字母。

信道编码

通信系统中的信道编码引入了带控制的冗余,以提高系统的可靠性。信源编码减少冗余以提高系统的效率。

信道编码包括两个部分的操作。

  • 映射输入数据序列到信道输入序列。

  • 逆映射信道输出序列到输出数据序列。

最终目标是使信道噪声的整体影响最小化。

映射由发送器在编码器的帮助下完成,而逆映射由接收器中的解码器完成。

广告
© . All rights reserved.