现在的位置: 首页 > 综合 > 正文

一些信息熵的含义

2012年02月03日 ⁄ 综合 ⁄ 共 1333字 ⁄ 字号 评论关闭

一些信息熵的含义

(1)   信息熵的定义:假设X是一个离散随即变量,即它的取值范围R={x1,x2...}是有限可数的。设pi=P{X=xi},X的熵定义为:

1                                               (a)

若(a)式中,对数的底为2,则熵表示为H2(x),此时以2为基底的熵单位是bits,即位。若某一项pi=0,则定义该项的pilogpi-1为0。

(2)   设R={0,1},并定义P{X=0}=p,P{X=1}=1-p。则此时的H(X)=-plogp-(1-p)log(1-p)。该H(x)非常重要,称为熵函数。熵函数的的曲线如下图表示:

2

再者,定义对于任意的x∈R,I(x)=-logP{X =x}。则H(X)就是I(x)的平均值。此时的I(x)可视为x所提供的信息量。I(x)的曲线如下:

3

(3)   H(X)的最大值。若X在定义域R={x1,x2,...xr},则0<=H(X)<=logr。

(4)   条件熵:定义4

推导:H(X|Y=y)= ∑p(x|y)log{1/p(x,y)}

H(X|Y)=∑p(y)H(X|Y=y)= ∑p(y)*∑p(x|y)log{1/p(x/y)}

       H(X|Y)表示得到Y后,X的平均信息量,即平均不确定度。

(5)   Fano不等式:设X和Y都是离散随机变量,都取值于集合{x1,x2,...xr}。则

H(X|Y)<=H(Pe)+Pe*log(r-1)

其中Pe=P{X≠Y}。Fano表示在已经知道Y后,仍然需要通过检测X才能获得的信息量。检测X的一个方法是先确定X=Y。若X=Y,就知道X;若X≠Y,那么还有r-1个可能。

(6)   互信息量:I(X;Y)=H(X)-H(X|Y)。I(X;Y)可以理解成知道了Y后对于减少X的不确定性的贡献。

I(X;Y)的公式:5

I(X;Y)=∑(x,y)p(x,y)log{p(y|x)/p(y)}

 

(7)   联合熵定义为两个元素同时发生的不确定度。

联合熵H(X,Y)= (x,y)p(x,y)logp(x,y)=H(X)+H(Y|X)

 

(8)   信道中互信息的含义

互信息的定义得:

I(X,Y)=H(X)-H(X|Y)= I(Y,X)=H(Y)-H(Y|X)

若信道输入为H(X),输出为H(Y),则条件熵H(X|Y)可以看成由于信道上存在干扰和噪声而损失掉的平均信息量。条件熵H(X|Y)又可以看成由于信道上的干扰和噪声的缘故,接收端获得Y后还剩余的对符号X的平均不确定度,故称为疑义度。

条件熵H(Y|X)可以看作唯一地确定信道噪声所需要的平均信息量,故称为噪声熵或者散布度。

(9)   I(X,Y)的重要结论

互信息 7

互信息I(X,Y)只是输入信源X的概率分布P(xi)和信道转移概率P(yj|xi)的函数,可以证明当P(xi)一定时,I是关于P(yj|xi)的∪函数,存在极小值;当P(yj|xi)一定时,I是关于P(xi)的∩函数,存在极大值。

(10)   联合熵、条件熵的关系图。H(X)>=H(X|Y)H(Y)>=H(Y|X)

8

http://blog.csdn.net/KXY_tech/article/details/3993457

抱歉!评论已关闭.