现在的位置: 首页 > 综合 > 正文

第8章 熵编码

2013年03月10日 ⁄ 综合 ⁄ 共 2664字 ⁄ 字号 评论关闭

http://www.cnblogs.com/xkfz007/archive/2012/07/29/2614250.html

1. 熵编码

  • 熵(Entropy):信源的平均信息量,更精确的描述为表示信源所有符号包含信息的平均比特数
    • 信源编码要尽可能的减少信源的冗余,使之接近熵
    • 用更少的比特传递更多的信源信息
  • 熵编码:数据压缩中根据信源消息的概率模型使消息的熵最小化
    • 无损压缩
    • 变长编码

2. 熵

  • 信息量:

单位:比特

  • 熵:

单位:比特/符号

3. 定长编码

4. 变长编码

  • 变长编码:用不同的比特数表示每一个符号
    • 为频繁发生的符号分配短码字
    • 为很少发生的符号分配长码字
    • 比定长编码有更高的效率
  • 常用的变长编码
    • Huffman编码
    • 算术编码

5. Huffman编码

  • 前缀码:任何码字不是其它码字的前缀
    • 如果011为一个有效码字,则0,1,01,11必不是有效码字
    • 不会引起解码歧义
  • Huffman:
    • 二叉树
    • 树节点:表示符号或符号组合
    • 分支:两个分支一个表示"0",另一个表示"1"

  • Huffman的不唯一性
    • 每次分支有两种选择:0,1

    • 相同的概率产生不同的组合

  • 缺点:
    • 数据的概率变化难于实时统计
    • Huffman树需要编码传输给解码器
    • 只有在p(xi)=1/2ki 时是最优编码
    • 最小码字长度为1比特/符号
  • 如果有二值信源,其两个符号的概率相差很大
    • 例如:p(1)=0.0625,p(0)=0.9375则H=0.3373比特/符号,Huffman编码平均码长=1比特/符号
    • 两个符号联合编码有更高效率

6. 扩展Huffman编码

7. 范式Huffman编码

  • 范式Huffman树的建立规则
    • 节点左支设为0,右支设为1
    • 树的深度从左至右增加
    • 每个符号被放在最先满足的叶子节点

  • 特性
    • 第一个码字是一串0
    • 相同长度的码字的值是连续的
    • 如果所有的码字通过在低位补0的方式,使所有码字的长度相同则有 0000<0100<1000<1010<1100<1110<1111
    • 从码字长度n到n+1有如下关系
      • C(n+1,1)=(C(n,last)+1)<<1
    • 从码字长度n到n+2有如下关系
      • C(n+2,1)=(C(n,last)+1)<<2

8. 一元码

  • 编码一个非负整数n为n个1和一个0
  • 不需要存储码表
  • 可以用Huffman树表示

  • 码长增长太快:n=100,码长101

9. 哥伦布编码

  • 将信源符号等分成几组,每组有相应的编号
  • 编号小的分配码字短,编号大分配码字长
  • 同组的符号有等长的码字,比一元码的码字长度增长慢

  • 码字分配



 

10. 指数哥伦布编码

  • 哥伦布码对信源符号的分组大小相同
  • 指数哥伦布码对信源符号的分组大小按照指数增长
  • 指数哥伦布码依然是一元码加定长码的形式
  • 指数哥伦布码的指数k=0,1,2,…


11. CAVLC( Context-Based Adaptive Variable Length Code)

  • 当前块的系数分布和其邻块的系数分布情况相关
    • NX为块X的非零系数个数,当前块C的第一个系数的编码码表由NC决定, NC=( NA+ NB
      )/2

  • 当前待编码系数和前面编码系数有相关性
    • 当前块C的其它系数的编码码表由前一个系数的幅值决定cofN-1=>GolombTab_x,用GolombTab_x编码cofN

12. 算术编码

  • 信息量=>符号编码比特数
  • Huffman编码为每个符号分配一个码字,这说明Huffman编码的压缩上限是1比特/符号
  • 算术编码若干个符号可编码成1bit
  • 算术编码是把信源表示为实数轴上[0,1]区间,信源中每个符号都用来缩短这个区间
    • 输出[0,1]区间的一个实数表示一串编码符号
    • 比Huffman编码更有效
  • 编码思想
    • 编码器用熵编码算法编码一串符号产生一个[0,1]区间的实数,将实数的一个二进制表示传给解码器
    • 解码器用熵解码算法解码得到一串符号
  • 小数的二进制表示

  • 信源符号概率分布

  • 字符串:X2 X2 X3 X3 X6 X5 X7
  • Huffman编码,01 01 100 100 00 11 1011,18bit

  • 算术编码更接近熵
  • 有限精度算术编码是次优(Near-optimal)编码,发送整数比特给解码端
  • 算术编码到最后一个字符编码结束才输出码字
  • 编码复杂度也比较高

13. 二值算术编码

13. 自适应二值算术编码

  • 由于信源0和1出现的概率是在不断变化的,因此0和1的概率区间也应该不断改变
  • 自适应二值算术编码每编码一个0或1都重新统计0和1的概率并重新划分[0,1)区间
  • 编解码端的概率统计模型一致,能够得到同样的[0,1)区间划分

 

14. CABAC(Context-Based Adaptive Binary Arithmetic Coding)


  • 当前块的语法元素概率分布和其邻块的语法元素概率分布情况相关
    • 当前块C的邻块A和B的语法元素SA与SB可以为编码C块的语法元素SC选择概率模型
  • 二值化
    • 将语法元素值转换成二进制值串
  • 概率模型更新
    • 根据已经编码的比特,重新估计二进制值串的概率并更新概率模型,用新的概率模型编码下一个比特

15. Run Length 编码

  • 利用信源字符的重复性来编码的技术
  • 对有很长,很多重复字符的信源编码非常有效
  • 重复字符称为run,重复的字符个数称为run length
  • Run-length编码能够和其它熵编码一起来压缩数据

16. 字典编码

  • 字典编码:根据信源符号(消息)的组合特点,建立包含各种符号组合的字典,编码这些符号组合的索引
    • LZ78=>Winzip
    • LZW=> GIF
  • 适合一般意义上的数据压缩,去除数据的统计冗余

17. LZW

  • 将信源输出的字符串中,每个第一次出现的字符或者字符串用索引来表示,并将字符或字符串对应的索引编码到码流中
  • 解码端根据从码流中解码的字符,在线的建立和编码器完全一样的字典,并恢复出信源输出的字符串
  • 适用于字符串中有大量的子字符串多次重复出现,重复次数越多,压缩效果越好
  • 单个符号被分配为0-255之间的值
  • 初始码表,使其包含值为0-255的256个符号,值大于255的符号为空
  • 编码器将根据编码的符号情况确定字符组合为从 256 到 4095 之间的值
  • 编码时,编码器识别新的字符组合,并将他们增加到码表中
  • 编码器用码表中的符号组合所对应的值编码

  • 解压时LZW解码器能够产生和编码器完全一样的码表
  • 和编码器一样先初始化所有的单字符,将0-255之间的值分配给它们
  • 除了解码第一个字符外,解码其它字符时都要更新码表
  • 通过读码字并根据码表中的值将它们解码为对应的字符或字符组合

18. LZ78

参考资料:

抱歉!评论已关闭.