哈夫曼压缩算法
编程独白给你40分钟的时间,你可以思考十分钟,然后用三十分钟的时间来写代码,最后浪费在无谓的调试上;你也可以思考半个小时,彻底弄清问题的本质与程序的脉络,然后用十分钟的时间来编写代码,体会代码如行云流水而出的感觉。在编程过程当中,相信大家都深有体会,在调试上浪费时间,问题出现在下笔之前没有一个系统结构。
关于哈夫曼 哈夫曼在通信领域有很多的用途,将需要传输的数据转换01串,相比直接传输,极大提高了传输的速率,同时还在数据压缩的重要方法。而本篇主要介绍的是哈夫曼压缩算法。
哈夫曼树创建 哈夫曼树创建用了两种的方法,一种是基于顺序表,另一种是基于最小堆。关于这两种方法可以参考: [*]
基于顺序表哈夫曼树[*]
(堆的应用)Huffman赫夫曼树的建立(推荐)
建立Huffman树的基本思路:
给定有权重的一系列数据(带权重),从中挑选最小权重的两个数据,组成一棵树,得到的父节点再插入到数据系列当中。
哈夫曼压缩思路
假设一字符串是,“abcabcabcabcabcabcddddddddd”,统计各字符出现的次数如下表。
字符出现次数
a6
b6
c6
d9
按照一搬的存储方法,一个字符占用一个字节,那么共花费(6+6+6+9)*sizeof(char) = 27字节,27字节确实不算什么,但是如果是海量数据的时候,就可能要考虑存储空间的问题了。
来看看哈夫曼压缩算法是怎么做的,同样是上面的例子,我们试着建立哈夫曼树,出现的次数就当做是权重,出现的次数越多的话,越靠近根节点,那么编码越短,如下图:
http://images.cnblogs.com/cnblogs_com/daoluanxiaozi/201112/201112261940381221.png
于是上面的“abcabcabcabcabcabcddddddddd”,就可以转化为“0001,1000,0110,0001,1000,0110,0001,1000,0110,1111,1111,1111,1111,11”,注意这里采用的按位存储的,也就是说0和1都是位,而非char型。那么之前的27字节就被我们转换成了7个字节(7字节不足,不足的话就补零),而这就达到了压缩的效果。
所以总结一下:利用哈夫曼树编码的特点,权重越大越靠近根节点,得到的编码就越短的原理,而如果把字符出现次数作为权重的话,文本当中出现次数最多的字符就被压缩成了很短的编码。
哈夫曼压缩详解
·压缩过程主要步骤如下:[*]统计:读入源文件,统计字符出现的次数(即统计权重),顺便根据权重进行从大到小的排序(主要的话之后的操作会简单一些);[*]建树:以字符的权重(权重为0的字符除外)为依据建立哈夫曼树;[*]编码:依据2中的哈夫曼树,得到每一个字符的编码;[*]写入:新建压缩文件,写入压缩数据。
其中最为复杂的是步骤4,因为它涉及到了位的操作,待我细细道来。
假设一字符串是,“acbcbacddaddaddccd”,统计各字符出现的次数如下表。
字符出现次数
a4
b2
c5
d7
http://images.cnblogs.com/cnblogs_com/daoluanxiaozi/201112/201112261940397449.png 哈夫曼树
步骤123统计,建树,编码都已经完成了,剩下写入压缩文件。将字符串一步一步翻译成01串,
[*]a:000[*]ac:0001 0[*]acb:0001 0110[*]acbc:0001 0110 10[*]acbcb:0001 0110 1011 0…
似乎都很顺利,但是位操作有点麻烦。首先申请足够大的内存,比如已知文本字符个数是1000个字符(字节),可以申请1000*4,即一个字节平均4字节(32位)的压缩编码空间(已经足够大了),别把这些看成是char型了,当作位来看。
声明nDestIndex作为已编码的位数,相当于counter。刚申请的足够大的内存以8位划分,那么可以发现:[*]nCodeIndex/8可以标明第一个未存满的字节,相当于nCodeIndex>>3;[*]
nCodeIndex%8可以标明第一个未存满的字节当中有几位已经完成了存储,相当于nCodeIndex&7。
可能说的不够清楚,所以画了图:
http://images.cnblogs.com/cnblogs_com/daoluanxiaozi/201112/201112261940402009.png
http://images.cnblogs.com/cnblogs_com/daoluanxiaozi/201112/201112261940411584.png
*(long *)(pDest+(nCodeIndex>>3)) |= (p->code) << (nCodeIndex&7);(其中p为哈夫曼节点)
http://images.cnblogs.com/cnblogs_com/daoluanxiaozi/201112/201112261940438369.png
如此一来,我们就可以很理直气壮的将*(long *)(pDest+(nCodeIndex>>3))赋值为*(long *)(pDest+(nCodeIndex>>3)) | (p->code) << (nCodeIndex&7)(0|X=X),而不用担心到底*(long *)(pDest+(nCodeIndex>>3))里面到底有多少位已经是存储了的。
给出压缩主要代码:void CompressHuffman(char * filename)
{
//·统计权重
int count = Statistics(filename);
Huffman hf;
hf.CreateHuffmanTree(acsii,count);
//·测试
//hf.Print();
//根据生成的哈夫曼树,为每个字符生成编码
EnCode(&hf,count);
HuffmanNode * root = hf.GetRoot();
fstream fshuff;
fshuff.open("data.huff",ios::binary|ios::out);
//写入压缩文件的工作流程如下:
//·数据个数(字符出现的个数)
//·每个数据(data)以及其权重(rate)
//·源文件中的字符个数,如源文件为abcd123,那么字符个数为7
//·编码的长度
//·编码
//·写入字符个数,比如abdarr,字符个数是4
fshuff.write((char *)&count,sizeof(int));
//·写入acsii值和权重,以便在解压缩的时候重建哈夫曼树
unsigned inti;
for(i=0; i<count; i++)
{
//·这里的读写可能会有问题的
fshuff.write((char *)&(acsii.data),sizeof(char));
fshuff.write((char *)&(acsii.rate),sizeof(int));
}
//·注意区别fs和fshuff,前者是源文件,后者是压缩后的文件
fstream fs(filename,ios::in|ios::binary);
//·获取源文件文件字节数大小,seekg用在读中,seekp用在写中
fs.seekg(0, ios_base::end);
long nFileLen = fs.tellg();
fs.seekg(0,ios::beg);
//·将源文件逐个写入到压缩文件当中
char * pDest = new char ;
for(i=0; i<nFileLen; i++) //·清零,不清零会出现致命性的错误
*(pDest+i) = 0;
unsigned int nCodeIndex = 0;
char * temp = new char;
fs.read(temp,nFileLen);
HuffmanNode *p;
for(i=0; i<nFileLen; i++)
{
//·在acsii表当中
p = GetCodeFromACSIITable(temp,count);
assert(p != NULL);
*(long *)(pDest+(nCodeIndex>>3)) |=
(p->lCode) << (nCodeIndex&7);
nCodeIndex += p->nCodeLen;
}
//·写入源文件的字符个数
fshuff.write((char *)&nFileLen,sizeof(long));
//·写入编码长度
fshuff.write((char *)&nCodeIndex,sizeof(int));
unsigned intnDestLen = nCodeIndex/8;
if(nDestLen*8 < nCodeIndex)
nDestLen ++;
//·写入编码
fshuff.write(pDest,nDestLen);
fshuff.close();
fs.close();
}
简介哈夫曼压缩文件DL结构
前一段时间在接触位图的时候被位图结构触动了,感觉它存储得有条理,于是萌生了为哈夫曼压缩文件定义一个存储结构,称之为哈夫曼压缩文件DL结构。关键是要统一,这篇博文用的是一种结构,另一篇用的又是另一种,纷杂的样式会让初学者发晕,所以统一结构对于学习哈夫曼压缩文件会有很大的帮助。
DL结构组成部分:[*]节点个数-用以规定创建哈夫曼树节点个数,以便读入节点域;[*]节点域-用以创建哈夫曼树和产生字符编码;[*]源文件字符数-在解压的时候有用;[*]编码长度(以位为单位)-源文件编码的总长度,以位为单位;[*]编码域-存储所有字符编码的存储域。
为了便于让你不看文字就能明白,看下图,按着这种结构就相当于有了大概的思路。
http://images.cnblogs.com/cnblogs_com/daoluanxiaozi/201112/201112261940484470.png
哈夫曼解压详解
解压的过程就简单很多了,因为一些代码已经在解压过程当中完成,比如哈夫曼树的建立,我们只要设计压缩和解压通用的接口,就可以很简单的按照编码域的内容,将编码翻译成原文。[*]读入节点个数;[*]根据1,读入节点域;[*]创建哈夫曼树;[*]读入编码长度;[*]根据4,读入编码域;[*]翻译;[*]写入解压后的文件。
根据编码长度(以bit为单位),可以计算出编码域的大小(以byte为单位),读入编码域就很方便了。其中翻译部分我给出一部分代码,根据哈夫曼树,将编码域的01串按位处理,转换为字符。[*]Code&1判断最低位是0还是1,从而决定指向left还是right;[*]Code>>=1,将Code右移,方便处理下一位;[*]每当翻译出一个字符,就要将当前的哈夫曼指针重新指向root,p = hf.GetRoot()。for(i=0; i<nFileLen-1;) //·特地少处理一个字节
{
Code = *(temp+(nSrcIndex));
for(int j=7; j>=0; j--)
{
p = (Code&1) ? p->right : p->left;
if(!p->left && !p->right)
{
*(pDest+i) = p->data;
p = hf.GetRoot();
i++;
}
Code>>=1; //·为了处理下一位,右移一位
}
nSrcIndex ++;
}
Code = *(temp+(nSrcIndex));
for(int j=0; j<nOffset; j++)
{
p = (Code&1) ? p->right : p->left;
if(!p->left && !p->right)
{
*(pDest+i) = p->data;
cout << p->data << endl;
p = hf.GetRoot();
}
Code>>=1; //·为了处理下一位,右移一位
}
附哈夫曼压缩算法工程:哈夫曼压缩算法.rar
本文完。Monday, December 26, 2011http://www.cnblogs.com/daoluanxiaozi/aggbug/2302464.html?type=1
本文链接
页:
[1]