信息论基础
加如存在一个离散变量可能取值
,定义
为事件
发生所传递的信息。如果对所有的事件取平均即可以得到
的熵。
随机变量的熵解释为:事件的不确定度。熵越大不确定度越大概率越小。就比如太阳从西边升起这个概率很小,但是表示的信息量却很大。对于一个联合事件
概率分布为
。假如已经知道
发生,那么
剩余的不确定度我们用条件熵来表示:
假设一个信道模型
假如在接收端事件已经发生的情况下能够提供
多少信息用互信息(mutual information)表示为:
可以看出所谓的互信息即是我们在接收端观测到的情况下对于
的不确定度的降低程度: