资源描述
P.102-4月-242-1 信源特性与分类信源特性与分类(一)信源的统计特性(一)信源的统计特性1)什么是信源?)什么是信源?信源是信息的来源,实际通信中常见的信源有:语音、文字、图像、数据。在信息论中,信源是产生消息(符号)、消息(符号)序列以及连续消息的来源,数学上,信源是产生随机变量U,随机序列U和随机过程U(t,)的源。2)信源的主要特性)信源的主要特性 信源的最基本的特性是具有统计不确定性,它可用概率统计特性来描述。P.202-4月-24(二)信源的描述与分类(二)信源的描述与分类 1)单消息(符号)信源)单消息(符号)信源:它是最简单也是最基本的信源,是组成实际信源的基本单元。它可以用信源取值随机变量的范围U和对应概率分布P(u)共同组成的二元序对U,P(u)来表示。对离散信源例:对于二进制数据、数字信源:U=0,1,则有P.302-4月-24对于连续变量信源其中:2)实际信源)实际信源 实际信源在离散情况下是消息序列信源,在连续情况下是随机过程信源,它们分别代表数字与模拟信源。离散序列信源离散序列信源i=1,2,nl=1,2,L其中,i=1,2,n为每个消息(符号)取值的种类数l=1,2,L为消息(符号)序列的长度应注意的是i和l是代表两个不同范畴的变量,表示不同的概念,切勿混淆。(二)信源的描述与分类(二)信源的描述与分类(续)(续)P.402-4月-24信源输出是一组随机序列(矢量):其样值为:对应概率为:由于每个随机变量U=1,2,n有n种取值,则有种可能取值。对消息序列信源有:2)实际信源)实际信源(续)(续)P.502-4月-24例:最简单L=3的三位PCM信源:这时L=3,n=2,即i=0,1,则有:)离散无记忆信源)离散有记忆信源大部分实际信源属于这类,尤其当L足够大时,2)实际信源)实际信源(续)(续)P.602-4月-24这里需要进一步解释有两点:首先,我们称仅对转移概率平稳的为齐次;其次,当齐次马氏链满足不可约、非周期性条件时,称为遍历,它与起始条件分布无关。在实际信源中,数字图像信源往往采用马氏链模型。2)实际信源)实际信源(续)(续)P.702-4月-24连续信源连续信源在实际的连续信源中,可以采用两种方法进行分析一类是将连续信源离散化随机序列信源另一类是仍然采用随机过程来分析下面,首先要回答什么样的信源可以进行离散化处理?实际上,只要满足一个非常宽松的条件,即满足限时(T)、限频(F)的连续消息信源,即满足物理可实现条件下,均可离散化为随机序列。类似于在信号分析中对周期性确知信号的正交展开,这里也可以类似的对非确知连续随机信号在满足限时(T)、限频(F)条件下展开成类似的离散随机序列信号。2)实际信源)实际信源(续)(续)P.802-4月-242)实际信源)实际信源(续)(续)P.902-4月-24下面,我们给出三类最常用的展开式:)付氏级数展开式对限时(T)、限频(F)信号;)取样函数展开式对限频(F)、限时(T)信号;)K-L展开式展成线性无关或统计独立序列。下面逐一讨论)限时(T)、限频(F)过程的付氏展开:U(t,)若这里,为一周期性随机过程;“a.e.”为almosteverywhere,几乎处处含义下相等(收敛)P.1002-4月-24类似于周期性确知信号,在时域内可做下列付氏级数展开:当时,其中:)限频(F)、限时(T)过程H(f,)的取样函数展开若常用的展开式常用的展开式 (续)续):P.1102-4月-24常用的展开式常用的展开式 (续)续):这里,为一频域中周期性随机过程,同理,类似于对周期性确知信号,在频域可做下列付氏级数展开:当时,而由于即现令P.1202-4月-24则有常用的展开式常用的展开式 (续)续):P.1302-4月-24)K-L展开(Karhunen-Loeve展开)上述两类展开,在一般情况下其展开系数之间是统计关联的,即展开后的离散随机序列是有记忆的。这给进一步分析带来了一定的困难。能否在理论上寻找一类展开,展开后的随机序列是相互统计独立的,或者至少是线性无关的。满足这一要求的是K-L展开。设:随机过程U(t,w),tT,若EU(t,w)=0,则有R(t1,t2)=EU(t1,w)U(t2,w),又设在区间T=a,b时,有一组完备正交函数,即其中i=1,2,n,且n为有限或可数。常用的展开式常用的展开式 (续)续):P.1402-4月-24则注意:是单边展开。而我们希望各ai之间线性无关,即常用的展开式常用的展开式 (续)续):P.1502-4月-24两边同乘并在a,b内对t2积分,由归一性可得:可见,正交函数系应满足下列积分方程:下面简要介绍积分方程的概念,所谓积分方程,是指未知函数在积分号内的方程式,我们这里讨论的是最常见的线性积分方程。即一般积分方程可写为:常用的展开式常用的展开式 (续)续):P.1602-4月-24常用的展开式常用的展开式 (续)续):对照上述K-L展开应满足的积分方程,可得:仅有是未知的。这类积分方程又称为齐次第二类线性积分方程,其核是对称型的,求解比较容易。它要求特征值 为某些离散值,而与之对应的正交函数则是积分方程的特征函数。可见,当已知时,可求解上述积分方程,得特征值 和相应特征函数,然后即可将U(t,)展成为:展开后所得的函数是线性无关的随机变量。若U(t,)为一正态随机过程,则不仅线性无关而且是统计独立的随机变量P.1702-4月-24可见,K-L展开主要优点在于展成的系数是线性无关的,且对正态是统计独立的,因此展开后可作为无记忆信源来处理。另外据分析它的收敛速度也比较快。但是可惜目前尚未找到它的快速收敛算法,另外在概念上又不像付氏展开、取样展开那样直观,所以在实际问题中很少应用,而是将它作为理论上最优变换的一个参考标准。常用的展开式常用的展开式 (续)续)P.1802-4月-24(三)实际信源举例三)实际信源举例下面仅以最常见的图像与语音信源为例1)图像信源)图像信源图像信源一般可以引用一个五元的随机场来表示:(简化)主要统计特性:初步可以认为是一个近似的平稳遍历过程幅度概率分布:它主要采用专用仪器测试并用直方图分析,但未得出一致性结论,主要原因是其分布与图像类型密切相关,比如对准动态型,其分布接近于正态分布,而对于动态型,其分布则接近于对数正态分布。自相关函数:一般可认为即相关函数呈指数分布。P.1902-4月-241)图像信源)图像信源(续)(续)P.2002-4月-24电视信号还可以进一步划分为行内、行间、场间不同情况,其相应的相关函数与功率谱分布如下:1)图像信源)图像信源(续)(续)P.2102-4月-24对于数字型图像信号,可以采用马氏链模型而为相邻像素之间的相关系数。2)语音信源)语音信源可以近似用一个一维随机过程U(,t)表示。严格的讲,它是一个非平稳过程,但是对于短时段(5-50ms)可认为是平稳的,且某些是随机噪声(清辅音)而某些时段则呈现周期性特征(浊音),还有一些短时段是二者的混合。1)图像信源)图像信源(续)(续)P.2202-4月-24非参数描述:幅度概率分布语音的一阶近似:Laplace分布二阶近似:Gama分布2)语音信源)语音信源(续)(续)P.2302-4月-24短时相关函数短时功率谱2)语音信源)语音信源(续)(续)P.2402-4月-24参数表示法共振峰基音:最低基本频率男100-200Hz,女200-400Hz。音素英语为例:27=12828=256种每秒平均发出10个音素2)语音信源)语音信源(续)(续)P.2502-4月-242-2 离散信源的信息熵离散信源的信息熵(一)信息熵与信息量的基本概念(一)信息熵与信息量的基本概念上一节我们引用概率论来描述信源,然而信源是信息的来源,那么信息与概率到底是什么样的关系呢?本节,我们首先从直观概念出发,推导出信源的信息度量公式:信息熵H(U),再进一步探讨它的基本概念与基本性质,最后再用严格的公理化结构证明熵的唯一性。信息的定量化,首先是1928年Hartley研究了具有个组合的信息源(即由N种m位符号所构成的信源),它给出了最早的信息度量公式:这一度量公式对后来Shannon建立概率信息的度量公式有很大的启发,仙农保留了对数度量的合理性,并将它从特殊的非概率(等概率)情况推广到一般的不等概率信源。下面将从直观概念来推广。P.2602-4月-24对于单个消息信源U,发送某个消息,对应概率为,这时信源输出的信息量为I,则有:小概率事件,一当出现必然使人感到意外,因此产生的信息量就越大;几乎不可能事件一旦出现,将是一条爆炸性的新闻,一鸣惊人。大概率事件,是预料之中的,即使发生,也没什么信息量,特别是当必然事件发生了,它不会给人以任何信息量。另外,从直观概念上讲,由两个不同的消息(相对独立)所提供的信息应等于它们分别提供的信息之和,即满足可加性:I(AB)=I(A)+I(B)(一)信息熵与信息量的基本概念(一)信息熵与信息量的基本概念(续)(续)P.2702-4月-24由对概率的递降性和可加性可以导出这类函数应是概率的对数函数:称为单个消息信源的非平均自信息量。同理可定义:(一)信息熵与信息量的基本概念(一)信息熵与信息量的基本概念(续)(续)(当pi,qj独立)P.2802-4月-24至此,我们从直观概念引入了信源输出的单个消息(符号)的非平均信息量的表达式。(一)信息熵与信息量的基本概念(一)信息熵与信息量的基本概念(续)(续)然而,对于信源而言,即使是单消息(符号),它亦含有有限种的,i=1,2n,因此由它给出的信息量应是n种可能的统计平均值,即其中“E”表示求概率的统计平均值,即求数学期望值。P.2902-4月-24同理可定义:(一)信息熵与信息量的基本概念(一)信息熵与信息量的基本概念(续)(续)称H(U)H(V)为信源信宿的信息熵,H(V/U)H(U/V)为条件熵,H(U,V)为联合熵。P.3002-4月-24信息熵H(U)是某个具体单个消息()的非平均自信息量的统计平均值,是描述信源统计的一个客观物理量。它首先是1948年仙农给出的,后来Feinstein等人又从数学上严格的证明了当信息满足对概率递降性和可加性条件下,上述信息熵的表达形式是唯一的。熵这个名词是仙农从物理学中的统计热力学借用过来的,在物理学中称它为热熵是表示分子混乱程度的一个物理量,这里,仙农引用它来描述信源的平均不确定性,含义是类似的。但是在热力学中已知任何孤立系统的演化,热熵只能增加不能减少;而在信息论中,信息熵正相反,只会减少,不会增加。所以有人称信息熵为负热熵。(一)信息熵与信息量的基本概念(一)信息熵与信息量的基本概念(续)(续)P.3102-4月-24信息熵的单位与公式中的对数取底有关。通信与信息中最常用的是以2为底,这时单位为比特(bit);理论推导中用以e为底较方便,这时单位为奈特(Nat);工程上用以10为底较方便,这时单位为笛特(Det)。它们之间可以引用对数换底公式进行互换。比如:1bit=0.693 Nat=0.301 Det最后,有必要阐述一下信息熵与信息量之间的关系:信息熵是表征信源本身统计特性的一个物理量,它是信源平均不确定性的度量,是从总体统计特性上对信源的一个客观描述。信息量一般是针对接收者而言的,是一个相对量,是指接收者从信源中所获得的信息度量。我们又称它为互信息量I(U;V)。当通信中无干扰时,接受者获得的信息量数量上就等于信源给出的信息熵,但是两者的概念不一样;当信道有干扰时,不仅概念上不一样,而且数量上也不相等。信息熵也可理解为信源输出的信息量。(一)信息熵与信息量的基本概念(一)信息熵与信息量的基本概念(续)(续)P.3202-4月-24(二二)熵的数学性质熵的数学性质主要用三个定理加以概括。定理2-2-1:熵函数H(U)具有以下主要性质:nHHHP.3302-4月-245可加性:(二二)熵的数学性质熵的数学性质 (续)(续)证明:1,2,3由熵的定义显见。5可加性:P.3402-4月-24(二二)熵的数学性质熵的数学性质 (续)(续)P.3502-4月-24定理定理2-2-2:熵函数H(U)具有极值性,即(二二)熵的数学性质熵的数学性质 (续)(续)用图形表示为:证明:先证明一个常用不等式:P.3602-4月-24(二二)熵的数学性质熵的数学性质 (续)(续)令f(x)=logx(x-1),则,可见当x=1时,f(x)=0,它是f(x)的极值。且,故此极值为极大值。所以有:f(x)f(1)=0,当且仅当x=1时取等号。这时f(x)=logx-(x-1)0=logx(x-1)现令,则有,两边取统计平均值求得:结论:等概率分布时熵最大,不确定性最大。故这一定理又被称为离散信源最大熵定理。P.3702-4月-24(二二)熵的数学性质熵的数学性质 (续)(续)nCnH(U)P.3802-4月-24(二二)熵的数学性质熵的数学性质 (续)(续)则称为凸函数(下凸)。其含义为:凸集合中函数的线性组合不小于凸集合中线性组合的函数。P.3902-4月-24(二二)熵的数学性质熵的数学性质 (续)(续)若不等号相反,即则称为上凸()或凹函数。若将上述“”“”改为“”“两个消息的联合熵与条件熵:两个消息的联合熵与条件熵:二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与消息(符号)熵消息(符号)熵 P.4902-4月-24则有如下定理:定理定理2-3-1:由两个消息(符号)组成的联合信源有如下结论:二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)这两个不等式又称为Shannon不等式。证明:先证式:P.5002-4月-24同理:二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)P.5102-4月-24再 证 明:(由熵的极值性)同理可证:二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)P.5202-4月-24推论:U1与U2相互独立时,显然有:由于实际信源是由有限个消息(符号)序列所组成,对这类消息(符号)序列信源,我们有如下定理:定理定理2-3-2:对消息序列信源遵从下列熵的链规则:其序列熵:消息熵:二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)P.5302-4月-24证明:二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)P.5402-4月-24二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)推论:当信源无记忆时,显然有:如果以上离散序列信源进一步满足平稳(广义)特性则有如下定理:定理定理2-3-3:对于离散、平稳、有记忆信源,下列结论成立:(1)是L的单调非增函数;(2);(3)是L的单调非增函数;(4)P.5502-4月-24证明:(1)由Shannon不等式可知熵绝不因附加条件的增加而有所增加,同时,由信源的平稳性有:二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)结论(1)得证。其中不等式是引用Shannon不等式。(2)P.5602-4月-24结论:L个消息的平均消息熵HL(U)不小于单个消息的最小条件熵。(3)由熵的链规则有:二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)P.5702-4月-24比较上述两式中的最后一项,有随着L的增大,所增加项的熵越来越小,所以平均消息熵也将随L的增大而减小。即:(4)由平均消息熵的定义,有将L+K项分为两大类:一类为前L-1项,看作一个联合熵,另一类是后K+1项,每一项看作条件熵。二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)P.5802-4月-24当L固定,则可得:由于上式对任意的L均成立,故有同时由结论(2)有:从而,必然有:其中称为极限熵。结结论论:对于平稳信源,从理论上看求极限熵已解决,但是实际上求解仍相当困难。二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)P.5902-4月-24当平稳信源又进一步满足遍历性(即满足不可约与非周期条件),则信源具有与起始条件p(ui)无关的平稳分布pi,则可进一步有下述可工程实用化的定理:定理定理2-3-4:对于平稳、遍历、马氏链信源,下列结论成立:其中pi,为平稳分布,pij为转移概率分布。证明:平稳、遍历、马氏链信源的平稳分布是下列联立方程的解:(唯一解)二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)P.6002-4月-24求解的pj即为上述公式的平稳分布pi。由定理2-2-3结论(4)有:推论:若将条件转移概率pji改为状态转移概率p(sj/si)则有:这里状态:二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)P.6102-4月-24这一推广,可将高阶马氏链纳入一阶状态马氏链来处理。从而大大方便了对有限记忆信源的处理与分析。对一般的离散、有记忆信源有下列定理:定理定理2-3-5:对离散、有记忆信源下列结论成立:证明:由Shannon不等式,显见。它指出:无记忆信源的熵不小于有记忆信源的熵。二二 离散有记忆信源的序列熵离散有记忆信源的序列熵 与与 消息(符号)熵消息(符号)熵 (续)(续)P.6202-4月-24仍然先讨论单个消息的互信息,再推广至消息序列的互信息。2-4 互信息互信息 一单个消息的互信息一单个消息的互信息 信息熵是信源输出的信息量,而真正被接收者收到的信息量则是互信息。它是与发、收双方都有关系的相对量,是指接收者从信源发送者中可获得的信息量,也可以认为是发送者传送给接收者的信息量。由仙农不等式:即:若令U1=U为发送者,U2=V为接收者。则它们之间的互信息量I(U;V)可定义为:P.6302-4月-24一单个消息的互信息一单个消息的互信息(续续)称为互信息密度。对互信息,我们有如下定理:定理定理2-4-1:互信息有下列基本性质:非负性;P.6402-4月-24证明:由定义有:一单个消息的互信息一单个消息的互信息(续续)P.6502-4月-24一单个消息的互信息一单个消息的互信息(续续)由互信息定义及Shannon不等式,显见即同理,显见且当U=V时,若U、V统计独立时,即接受者V不能从发送者U中获得任何信息。(熵的非负性)P.6602-4月-24至此,我们已讨论了熵H(U)、H(V),条件熵H(U/V)、H(V/U),联合熵H(U,V)以及互信息I(U;V),它们之间可以用下列形象、直观图形表示:一单个消息的互信息一单个消息的互信息(续续)P.6702-4月-24下面,我们进一步讨论互信息的性质定理定理2-4-2:互信息I(U;V)是的上凸(凸)函数;是的下凸(凸)函数。证明:为了证明方便,我们将互信息改写为:当条件概率Pji不变时,这时,一单个消息的互信息一单个消息的互信息(续续)P.6802-4月-24所以要证明I(pi)是pi的上凸函数,只需证:(按上凸函数定义)即:一单个消息的互信息一单个消息的互信息(续续),P.6902-4月-24上凸性得证。一单个消息的互信息一单个消息的互信息(续续)P.7002-4月-24一单个消息的互信息一单个消息的互信息(续续)再证下凸性,这时,可认为为不变值,则同理,可设:而要证下凸性,只需证即:P.7102-4月-24下凸性亦得证。一单个消息的互信息一单个消息的互信息(续续)P.7202-4月-24类似于信源熵,我们在研究单个消息互信息的基础上,进一步拓广至消息序列的互信息。为此有如下定理:定定理理2-4-3:若U=(U1UlUL),V=(V1VlVL)分别为发送和接受的消息序列,则有:二二 消息序列的互信息消息序列的互信息I(U;V)若各发送Ul统计独立:则:U,V间信道无记忆:则:上述均满足:则:P.7302-4月-24证明:二二 消息序列的互信息消息序列的互信息I(U;V)(续)续)P.7402-4月-24式得证二二 消息序列的互信息消息序列的互信息I(U;V)(续)续)P.7502-4月-24式得证。二二 消息序列的互信息消息序列的互信息I(U;V)(续)续)P.7602-4月-24若同时满足上述,条件,显然,两式结论同时成立。故式得证,即:若进一步又满足平稳性(推移不变与序号无关)定理定理2-4-4:类似于熵的链规则,互信息也有下述链规则:二二 消息序列的互信息消息序列的互信息I(U;V)(续)续)P.7702-4月-24证明:先证l=2,这时,有:二二 消息序列的互信息消息序列的互信息I(U;V)(续)续)P.7802-4月-24推广之,得:进一步,当l=3,二二 消息序列的互信息消息序列的互信息I(U;V)(续)续)P.7902-4月-24其中:即将m个元素归并为一个子集合,其对应概率:在信息处理中,经常要对所获得的数据进行进一步分类,并进行归并处理。即将可接受到的有限数据空间(Y,q)归并为另一类处理后的有限数据空间z=D(y),p.它可表示为:三三 信息不增性原理信息不增性原理信号数据处理定理信号数据处理定理P.8002-4月-24下面,将进一步讨论,经过数据处理以后与处理前相比较,两者从发送端可获得的互信息量是增加了还是减少了,为此有下列定理:定理定理2-4-5:在信息处理中,数据经归并处理后有如下结论:三三 信息不增性原理信息不增性原理信号数据处理定理信号数据处理定理 (续)(续)I(X;Y)IX;D(Y)H(X)I(X;)证明:设:P.8102-4月-24三三 信息不增性原理信息不增性原理信号数据处理定理信号数据处理定理 (续)(续)则有:这时,由此可见,经过分类、归并处理后信息只能减少,不能增加,故称为信息不增性原理。P.8202-4月-24三三 信息不增性原理信息不增性原理信号数据处理定理信号数据处理定理 (续)(续)先证即:P.8302-4月-24三三 信息不增性原理信息不增性原理信号数据处理定理信号数据处理定理 (续)(续)同理,可证:故结论成立。它说明,要想减少信息损失,必须付出代价。比如,多次接触信源,但无论接触多少次,也决不会获得超过信源可提供的信息熵H(X)。P.8402-4月-24它表征信源信息率的多余程度,是描述信源客观统计特性的一个物理量。由广义Shannon不等式有:2-5 冗余度冗余度 可见对于有记忆信源,最小单个消息熵应为H(U),即从理论上看,对有记忆信源只需传送H(U)即可。但是这必需要掌握信源全部概率统计特性。这显然是不现实的。实际上,往往只能掌握有限的L维,这时只需传送HL(U),那么与理论值 H(U)相比,就多传送了HL(U)-H(U)。P.8502-4月-24正由于信源存在着冗余度,即存在着不必要传送的信息,因此信源也就存在进一步压缩信息率的可能性。冗余度越大,压缩潜力也就越大。可见它是信源编码,数据压缩的前提与理论基础。为了定量描述信源有效性,可定义:信源效率:信源冗余度:(相对剩余)2-5 冗余度冗余度 (续续)P.8602-4月-24下面,以英文为例,计算文字信源的冗余度:首先给出英文字母(含空档)出现概率如下:字母字母pi字母空档ETOANIR0.20.1050.0720.06540.0630.0590.0550.054SHDLCF.UMP0.05020.0470.0350.0290.0230.02250.0210.0175Y.WGBVKXJ.QZ0.0120.0110.01050.0080.0030.0020.0010.001pipi2-5 冗余度冗余度 (续续)P.8702-4月-24下面,首先求得独立等概率情况H0,即其次,计算独立不等概率情况H1,再次,若仅考虑字母有一维相关性,求H2,还可进一步求出:H3=3.1bit,最后,利用统计推断方法求出H,由于采用的逼近的方法和所取的样本的不同,推算值也有不同,这里采用Shannon的推断值。这样,可以计算出=0.29,R=0.71。这一结论说明,英文信源,从理论上看71是多余成分。2-5 冗余度冗余度 (续续)P.8802-4月-24直观地说100页英文书,理论上看仅有29页是有效的,其余71页是多余的。正是由于这一多余量的存在,才有可能对英文信源进行压缩编码。对于其它文字,也有不少人作了大量的统计工作,现简述如下:2-5 冗余度冗余度 (续续)P.8902-4月-24至于,其它类型信源,比如话音,图象等,它们大部分属于限失真信源,其冗余度与理论压缩可能性,将在第四章R(D)函数中讨论。2-5 冗余度冗余度 (续续)P.9002-4月-24在通信中模拟信号比如语音、图像未数字化以前均属于连续信源。它在概念上与离散信源是不同的,但也有不少类似之处。对连续信源的分析,也可以类似于离散信源从单个连续消息(变量)开始,再推广至连续消息序列。对于连续随机变量可采用概率密度来描述:对连续随机序列可采用相应的序列概率密度来描述;而对于连续的随机过程一般也可以按照取样定理分解为连续随机变量序列来描述。2-6 连续信源的熵与互信息连续信源的熵与互信息 P.9102-4月-24连续随机变量可以看作是离散随机变量的极限,故可采用离散随机变量来逼近。下面,将采用这一观点讨论连续信源的信息熵与信息量。首先类比概率pi与概率密度p(u):(一)单个连续消息的随机变量信源(一)单个连续消息的随机变量信源 2-6 连续信源的熵与互信息连续信源的熵与互信息 P.9202-4月-24(一)单个连续消息的随机变量信源(一)单个连续消息的随机变量信源 (续(续)令ua,b,且ab,现将它均匀的划分为n份,每份宽度为,则u处于第i个区间的概率为pi,则pi=(中值定理)即当p(u)为u的连续函数时,由中值定理,必存在一个ui值,使上式成立。再按照离散信源的信息熵的定义有:P.9302-4月-24于是我们定义前一项取有限值的项为连续信源的信息熵,并记为Hc(U).(一)单个连续消息的随机变量信源(一)单个连续消息的随机变量信源 (续(续)即:Hc(U)=也可记为:Hc(U)=其中R1表示实轴。P.9402-4月-24这里应注意的是Hc(U)是连续信源的熵,而不是连续信源输出的信息量,而连续信源输出的信息量是Hn(U).这就是说,在离散信源中信源输出信息量就是信源熵,两者是一个概念;但是在连续信源中则是两个概念,且不相等。连续信源输出信息量Hn(U)是一个绝对值,他取值于,而连续信源的熵Hc(U)则是一个相对值,他取值是有限的。连续信源的熵Hc(U)是一个过渡性的概念,它虽然也具有可加性,但不一定满足非负性,它可以不具有信息的全部特征。比如,对一个均匀分布的连续信源,按照定义,有(一)单个连续消息的随机变量信源(一)单个连续消息的随机变量信源 (续(续)P.9502-4月-24(一)单个连续消息的随机变量信源(一)单个连续消息的随机变量信源 (续(续)显然,当b-a1时,Hc(U)非负性:I(U;V)02对称性:I(U;V)=I(V;U)3信息不增性:I(U;V)I(U;W),其中W=f(V)。证明1只需证明-I(U;V)0(一)单个连续消息的随机变量信源(一)单个连续消息的随机变量信源 (续(续)P.10102-4月-24(一)单个连续消息的随机变量信源(一)单个连续消息的随机变量信源 (续(续)P.10202-4月-24(一)单个连续消息的随机变量信源(一)单个连续消息的随机变量信源 (续(续)P.10302-4月-24现已设W=f(V),即V可唯一的决定W,故有:(一)单个连续消息的随机变量信源(一)单个连续消息的随机变量信源 (续(续)3由P.10402-4月-24(一)单个连续消息的随机变量信源(一)单个连续消息的随机变量信源 (续(续)代入原式,可得:应注意的是,证明中不能像离散时引用条件熵不等式。代入原式得:同理可证:若w=f(v)是一一对应映射,则,即w亦唯一决定vP.10502-4月-24类似于离散信源,我们可以将单个消息的结论推广至连续消息序列,为此有如下重要定理:定理定理2-6-2:对连续随机变量序列信源,下列结论成立:1当峰功率受限时,均匀分布具有最大熵;2当平均功率(或协方差阵)受限时,正态分布具有最大熵。证明:这是类似于离散熵最大熵定理的连续熵最大熵定理。首先证结论1:设连续随机变量序列u遵从均匀分布,其概率密度分布为q(u):(二)消息序列与连续随机序列信源:(二)消息序列与连续随机序列信源:P.10602-4月-24又设:若u遵从任意概率密度分布p(u),则有:(二)消息序列与连续随机序列信源(二)消息序列与连续随机序列信源:(续)(续)P.10702-4月-24这一结论说明:若取al=bl,这时信源u的幅度值受限于bl之间。(二)消息序列与连续随机序列信源(二)消息序列与连续随机序列信源:(续)(续)当l=1时,可用右图表示:这一结论表明:对任意分布p(u)时的熵:Hcp(u)都要小于均匀分布q(u)时的熵:Hcq(u)。P.10802-4月-242若平均功率受限,在多维情况下,它相当于要求协方差矩阵R一定(受限)。设:若连续随机变量序列u遵从正态分布,即(二)消息序列与连续随机序列信源(二)消息序列与连续随机序列信源:(续)(续)其中,m为u的数学期望值,R为u的协方差矩阵。P.10902-4月-24而i2为ui的方差,i为均方根值,ij为ui与uj间的相关系数(归一化相关系数)。若:u为任意分布,其概率密度分布可用p(u)表示。则:(二)消息序列与连续随机序列信源(二)消息序列与连续随机序列信源:(续)(续)P.11002-4月-24(二)消息序列与连续随机序列信源(二)消息序列与连续随机序列信源:(续)(续)
展开阅读全文