当前位置: 首页 > news >正文

信息论基础

    加如存在一个离散变量X可能取值(x_{0},x_{2},x_{3},\cdots ,x_{n-1}),定义I(x_{i})=-log(p(x_{i}))为事件x_{i}发生所传递的信息。如果对所有的事件取平均即可以得到X的熵。

Entroy=H(X)=E\{I(x)\}=E\{-logp(x)\}=-\int p(x)log\ p(x)dx

随机变量的熵解释为:X事件的不确定度。熵越大不确定度越大概率越小。就比如太阳从西边升起这个概率很小,但是表示的信息量却很大。对于一个联合事件(X,Y)概率分布为p(x,y)。假如已经知道Y发生,那么X剩余的不确定度我们用条件熵来表示:

H(X|Y)=-\iint_{}^{}p(x,y)\ log\ p(x|y)dxdy

假设一个信道模型

假如在接收端事件Y=y_{i}已经发生的情况下能够提供X=x_{i}多少信息用互信息(mutual information)表示为:

I(X,Y)=\iint_{}^{}p(x,y)log\left ( \frac{p(x,y)}{p(x)p(y)}\right )dxdy=\iint_{}^{}p(x,y)log\frac{p(x|y)}{p(x)}dydx\\ =-\iint p(x,y)logp(x)dydx-\iint p(x,y)logp(y)dydx+\iint p(x,y)logp(x,y)dydx\\ =-\iint_{}^{}p(x,y)logp(y) + \iint p(x,y)logp(y|x)dydx\\ =-\iint_{}^{}p(x,y)logp(x)+\iint_{}^{}p(x,y)logp(x|y)dxdy\\ =H(Y)-H(Y|X)\\ =H(X)-H(X|Y)

可以看出所谓的互信息即是我们在接收端观测到Y的情况下对于X的不确定度的降低程度:H(X)-H(X|Y)

相关文章:

  • OpenLayers 加载导航与基本操作控件
  • Eclipse中设置Java程序运行时的JVM参数
  • 使用Python操作Mysql数据库
  • 赋能电力FTU,飞凌嵌入式RK3506核心板AMP双系统技术应用解析
  • 解决:ERROR: No matching distribution found for matplotlib= =3.8.3
  • SQL每日一练(2)
  • 【esp32 WIFI连接】-STA模式
  • SpringBoot多环境配置文件切换
  • 高速串行差分信号仿真分析及技术发展挑战续
  • TF-IDF和词袋模型
  • Python实用工具:文件批量重命名器
  • MySQL分库分表
  • 对神经正切核的理解和推导(1)
  • 浅析SpringBoot中的classpath
  • 互联网和以太网之是什么与区别
  • DVWA文件上传笔记
  • 踩坑记录:RecyclerView 局部刷新notifyItemChanged多次调用只触发一次 onBindViewHolder 的原因
  • 数据库调优与数据表的范式设计
  • LangGraph:部署智能应用
  • 在 .NET 环境下实现跨进程高频率读写数据
  • 长春南京小学网站建设/讯展网站优化推广
  • 做网站日ip100/百度一下下载
  • 一个商务宣传怎么做网站合适/seo优化工具
  • 自建网站怎么做后台管理系统/网站收录查询站长工具
  • 备案的网站 ,能拿来做仿站吗/百度热搜关键词排名
  • 百度网站优化/网页制作图片