收藏 分销(赏)

第二章信息的度量.docx

上传人:s4****5z 文档编号:8657238 上传时间:2025-02-24 格式:DOCX 页数:10 大小:1.52MB 下载积分:10 金币
下载 相关 举报
第二章信息的度量.docx_第1页
第1页 / 共10页
第二章信息的度量.docx_第2页
第2页 / 共10页


点击查看更多>>
资源描述
清楚几种关系: 1、联合自信息量与“自信息量、条件自信息量”的关系 注:这种关系可通过“联想记忆” 即:p(ab)=p(a)*p(b/a);p(ab)=p(b)*p(a/b); 2、互信息量与“自信息量、条件自信息量、联合自信息量”的关系 3、平均互信息量与“平均自信息量(信源熵)、条件熵、联合熵”的关系(掌握证明) 清楚几种符号: I(ai)、I(ai/bi)、I(aibi)——自信息量、条件自信息量、联合自信息量 I(ai;bi)——互信息量 H(A)、H(A/B)、H(AB)——信源熵(自信息量的统计平均)、条件熵、联合熵 I(A;B)——平均互信息量(互信息量的统计平均) 注:信息量的计算 I(x)=log1/p(x); 由“概率”可求“信息量”! 即:以“概率”来模拟“信息量” 一、 自信息量 自信息量、联合自信息量、条件自信息量 注:这种关系可通过“联想记忆” 即:p(ab)=p(a)*p(b/a);p(ab)=p(b)*p(a/b); 二、互信息量 互信息量、条件互信息量 互信息量与自信息量、联合自信息量、条件自信息量的关系: 注:比互信息量多了一个“小尾巴” 三、熵(平均自信息量),即:自信息量的“统计平均” 注:熵ó平均自信息量ó所有自信息量的平均值! 证明题:等概分布下的信源熵最大. f(变量)的均值=f(变量的均值) 四、平均互信息量,即:互信息量的“统计平均” 证明: 四、(5¢)证明:平均互信息量同信息熵之间满足 I(X;Y)=H(X)+H(Y)-H(XY) 证明: (2分) 同理 (1分) 则 因为 (1分) 故 即 (1分)
展开阅读全文

开通  VIP会员、SVIP会员  优惠大
下载10份以上建议开通VIP会员
下载20份以上建议开通SVIP会员


开通VIP      成为共赢上传

当前位置:首页 > 百科休闲 > 其他

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2026 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服