当前位置: 首页 > news >正文

《信息论与编码》课程笔记——绪论和离散信源(一)

目录

绪论

一、信息论的基本概念

1.1 信息的定义

1.2 信息的三个层次

二、香农信息论的研究内容

2.1 信源与信源编码

2.2 信道与信道编码

2.3 保密通信与密码学

离散信源(一)

一、自信息

1.1 定义

二、离散信源

2.1 定义

2.2 符号表示

三、信息熵

3.1 信息熵的定义

四、联合熵

4.1 联合熵

思考题


绪论

一、信息论的基本概念

1.1 信息的定义

根据香农的定义,信息是事物运动状态或存在方式的不确定性的描述。换句话说,信息是用来消除不确定性的。在日常生活中,我们通过消息、信号、数据等形式传递信息。

1.2 信息的三个层次

信息可以分为三个基本层次:

  • 语法信息:关注事物运动的状态和变化方式,香农信息论主要研究的是这一层次。
  • 语义信息:关注事物运动状态或变化方式的内在含义。
  • 语用信息:关注事物运动状态或变化方式的效用和价值。

二、香农信息论的研究内容

2.1 信源与信源编码

信源是信息的来源,它可以分为离散信源、连续信源和波形信源。信源编码的主要任务是将信源输出的消息转换为符号,以提高传输的有效性。

2.2 信道与信道编码

信道是信息从编码器传输到译码器的媒介。信道编码的主要任务是通过增加冗余来提高传输的可靠性。常见的信道编码技术包括汉明码、卷积码和Turbo码。

2.3 保密通信与密码学

保密通信是信息论的一个重要应用领域,它通过加密技术确保信息在传输过程中不被窃取或篡改。


离散信源(一)

一、自信息

1.1 定义

自信息(Self-Information)是衡量单个事件发生时所提供的信息量的指标。对于一个事件 x​,其自信息定义为:

I(x) = -\log p(x)

其中:

  • ​p(x)​ 是事件 x​ 发生的概率。
  • 对数的底通常为 2,单位为比特(bit)。

例子,假设一个事件 x​ 发生的概率为 p(x)=0.5​,则其自信息为:

I(x) = -\log_2 0.5 = 1 \text{ bit}

二、离散信源

2.1 定义

离散信源是指输出符号为离散值的信源。

例如,抛硬币的结果(正面或反面)就是一个典型的离散信源。离散信源的输出可以用符号集合表示,每个符号的出现概率可以通过概率分布描述。

2.2 符号表示

设离散信源的符号集合为 X={x1​,x2​,…,xn​}​,每个符号 xi​​ 出现的概率为 p(xi​)​,满足:

\sum_{i=1}^n p(x_i) = 1

例子,假设一个离散信源的符号集合为 X={a,b,c}​,其概率分布为:

  • ​p(a)=0.5​
  • ​p(b)=0.3​
  • ​p(c)=0.2​

则该信源的数学模型为:

X = \begin{cases} a, & p(a) = 0.5 \\ b, & p(b) = 0.3 \\ c, & p(c) = 0.2 \end{cases}

三、信息熵

3.1 信息熵的定义

信息熵(Entropy)是衡量信源不确定性的指标。对于一个离散信源X,其信息熵定义为:

H(X) = -\sum_{i=1}^n p(x_i) \log p(x_i)

其中,p(x_i) 是符号 x_i 的出现概率,对数通常以 2 为底,单位为比特(bit)。

例子,假设一个离散信源输出符号集合为 {a, b, c},其概率分布为 P(a) = 0.5, P(b) = 0.3, P(c) = 0.2。对于上述信源,其信息熵为:

H(X) = -0.5 \log_2 0.5 - 0.3 \log_2 0.3 - 0.2 \log_2 0.2 \approx 1.485 \text{ bit}

四、联合熵

4.1 联合熵

联合熵用于衡量两个或多个信源联合输出的不确定性。对于两个离散信源 X 和 Y,其联合熵定义为:

 
 

H(X, Y) = -\sum_{i,j} p(x_i, y_j) \log p(x_i, y_j)

例子:假设信源 X 和 Y 的联合概率分布如下:

X \ Yy1y2
x10.20.1
x20.30.4

则联合熵为:

H(X, Y) = -0.2 \log_2 0.2 - 0.1 \log_2 0.1 - 0.3 \log_2 0.3 - 0.4 \log_2 0.4 \approx 1.846 \text{ bit}

 

思考题

给定一个离散无记忆信源 X​,其符号集合为 X={0,1,2}​,对应的概率分布为:

p(0)=0.2,p(1)=0.4,p(2)=0.4

信源发出的消息为 0012010210​。需要解决以下问题:

  1. 上述消息所携带的信息量是多少?
  2. 上述消息平均每个符号所携带的信息量是多少?
  3. 该信源平均每个符号所携带的信息量是多少?

消息 0012010210​ 的长度为 10 个符号。每个符号的信息量可以通过自信息公式计算。得到消息的总信息量,消息长度为 10 个符号。可计算平均每个符号所携带的信息量。信源平均每个符号所携带的信息量即为信源的信息熵 H(X)​。

消息所携带的信息量:I_{\text{total}} = \sum_{i=1}^{10} I(x_i) ,5(2log5 - 1)

消息平均每个符号所携带的信息量:I_{\text{avg}} = \frac{I_{\text{total}}}{10}log5 - 0.5

信源平均每个符号所携带的信息量:H(X) = -\sum_{i} p(x_i) \log_2 p(x_i)log5 - 0.8

相关文章:

  • 【异地访问本地DeepSeek】Flask+内网穿透,轻松实现本地DeepSeek的远程访问
  • Autotestplat 在多个平台和公司推荐使用!
  • MyBatis-Plus 为简化开发而生【核心功能】
  • 最新Flutter导航拦截PopScope使用
  • 王道第三章栈和队列
  • PyTorch 系统教程:理解机器学习数据分割
  • 学习笔记08——ConcurrentHashMap实现原理及源码解析
  • 网络空间安全(6)web应用程序技术
  • CSS—隐藏元素:1分钟掌握与使用隐藏元素的方法
  • 【Linux第一弹】Linux基础指令(上)
  • 基于PHP和MySQL的用户登录注册系统实现
  • 测试向丨多模态大模型能做宠物身份识别吗?
  • LabVIEW中交叉关联算法
  • MongoDB安全管理
  • Linux笔记---缓冲区
  • 【JAVA SE基础】抽象类和接口
  • 【告别双日期面板!一招实现el-date-picker智能联动日期选择】
  • Java-Lambda表达式详解
  • STM32CubeMx DRV8833驱动
  • 免费轻巧多功能 PDF 处理工具:转换、压缩、提取一应俱全
  • 头条今日头条新闻网页版/潍坊seo计费
  • 怎么做农产品垂直网站/投放广告
  • 东莞网站推广案例/百度搜索关键词排行榜
  • 做黑网站赚钱/舆情信息在哪里找
  • 造作网站模版/问卷调查网站
  • 网站关键词可以做几个/网络营销网站推广