|
编程独白
给你40分钟的时间,你可以思考十分钟,然后用三十分钟的时间来写代码,最后浪费在无谓的调试上;你也可以思考半个小时,彻底弄清问题的本质与程序的脉络,然后用十分钟的时间来编写代码,体会代码如行云流水而出的感觉。在编程过程当中,相信大家都深有体会,在调试上浪费时间,问题出现在下笔之前没有一个系统结构。
关于哈夫曼 哈夫曼在通信领域有很多的用途,将需要传输的数据转换01串,相比直接传输,极大提高了传输的速率,同时还在数据压缩的重要方法。而本篇主要介绍的是哈夫曼压缩算法。
哈夫曼树创建 哈夫曼树创建用了两种的方法,一种是基于顺序表,另一种是基于最小堆。关于这两种方法可以参考:
建立Huffman树的基本思路:
给定有权重的一系列数据(带权重),从中挑选最小权重的两个数据,组成一棵树,得到的父节点再插入到数据系列当中。
哈夫曼压缩思路
假设一字符串是,“abcabcabcabcabcabcddddddddd”,统计各字符出现的次数如下表。
按照一搬的存储方法,一个字符占用一个字节,那么共花费(6+6+6+9)*sizeof(char) = 27字节,27字节确实不算什么,但是如果是海量数据的时候,就可能要考虑存储空间的问题了。
来看看哈夫曼压缩算法是怎么做的,同样是上面的例子,我们试着建立哈夫曼树,出现的次数就当做是权重,出现的次数越多的话,越靠近根节点,那么编码越短,如下图:
于是上面的“abcabcabcabcabcabcddddddddd”,就可以转化为“0001,1000,0110,0001,1000,0110,0001,1000,0110,1111,1111,1111,1111,11”,注意这里采用的按位存储的,也就是说0和1都是位,而非char型。那么之前的27字节就被我们转换成了7个字节(7字节不足,不足的话就补零),而这就达到了压缩的效果。
所以总结一下:利用哈夫曼树编码的特点,权重越大越靠近根节点,得到的编码就越短的原理,而如果把字符出现次数作为权重的话,文本当中出现次数最多的字符就被压缩成了很短的编码。
哈夫曼压缩详解
·压缩过程主要步骤如下:- 统计:读入源文件,统计字符出现的次数(即统计权重),顺便根据权重进行从大到小的排序(主要的话之后的操作会简单一些);
- 建树:以字符的权重(权重为0的字符除外)为依据建立哈夫曼树;
- 编码:依据2中的哈夫曼树,得到每一个字符的编码;
- 写入:新建压缩文件,写入压缩数据。
其中最为复杂的是步骤4,因为它涉及到了位的操作,待我细细道来。
假设一字符串是,“acbcbacddaddaddccd”,统计各字符出现的次数如下表。
哈夫曼树
步骤123统计,建树,编码都已经完成了,剩下写入压缩文件。将字符串一步一步翻译成01串,
- a:000
- ac:0001 0
- acb:0001 0110
- acbc:0001 0110 10
- acbcb:0001 0110 1011 0…
似乎都很顺利,但是位操作有点麻烦。首先申请足够大的内存,比如已知文本字符个数是1000个字符(字节),可以申请1000*4,即一个字节平均4字节(32位)的压缩编码空间(已经足够大了),别把这些看成是char型了,当作位来看。
声明nDestIndex作为已编码的位数,相当于counter。刚申请的足够大的内存以8位划分,那么可以发现:- nCodeIndex/8可以标明第一个未存满的字节,相当于nCodeIndex>>3;
nCodeIndex%8可以标明第一个未存满的字节当中有几位已经完成了存储,相当于nCodeIndex&7。
可能说的不够清楚,所以画了图:
*(long *)(pDest+(nCodeIndex>>3)) |= (p->code) << (nCodeIndex&7);(其中p为哈夫曼节点)
如此一来,我们就可以很理直气壮的将*(long *)(pDest+(nCodeIndex>>3))赋值为*(long *)(pDest+(nCodeIndex>>3)) | (p->code) << (nCodeIndex&7)(0|X=X),而不用担心到底*(long *)(pDest+(nCodeIndex>>3))里面到底有多少位已经是存储了的。
给出压缩主要代码:- void CompressHuffman(char * filename)
- {
- //·统计权重
- int count = Statistics(filename);
- Huffman hf;
- hf.CreateHuffmanTree(acsii,count);
- //·测试
- //hf.Print();
- //根据生成的哈夫曼树,为每个字符生成编码
- EnCode(&hf,count);
- HuffmanNode * root = hf.GetRoot();
- fstream fshuff;
- fshuff.open("data.huff",ios::binary|ios::out);
- //写入压缩文件的工作流程如下:
- //·数据个数(字符出现的个数)
- //·每个数据(data)以及其权重(rate)
- //·源文件中的字符个数,如源文件为abcd123,那么字符个数为7
- //·编码的长度
- //·编码
- //·写入字符个数,比如abdarr,字符个数是4
- fshuff.write((char *)&count,sizeof(int));
- //·写入acsii值和权重,以便在解压缩的时候重建哈夫曼树
- unsigned int i;
- for(i=0; i<count; i++)
- {
- //·这里的读写可能会有问题的
- fshuff.write((char *)&(acsii[i].data),sizeof(char));
- fshuff.write((char *)&(acsii[i].rate),sizeof(int));
- }
- //·注意区别fs和fshuff,前者是源文件,后者是压缩后的文件
- fstream fs(filename,ios::in|ios::binary);
- //·获取源文件文件字节数大小,seekg用在读中,seekp用在写中
- fs.seekg(0, ios_base::end);
- long nFileLen = fs.tellg();
- fs.seekg(0,ios::beg);
- //·将源文件逐个写入到压缩文件当中
- char * pDest = new char [nFileLen];
- for(i=0; i<nFileLen; i++) //·清零,不清零会出现致命性的错误
- *(pDest+i) = 0;
- unsigned int nCodeIndex = 0;
- char * temp = new char[nFileLen+1];
- fs.read(temp,nFileLen);
- HuffmanNode * p;
- for(i=0; i<nFileLen; i++)
- {
- //·在acsii表当中
- p = GetCodeFromACSIITable(temp[i],count);
- assert(p != NULL);
- *(long *)(pDest+(nCodeIndex>>3)) |=
- (p->lCode) << (nCodeIndex&7);
- nCodeIndex += p->nCodeLen;
- }
- //·写入源文件的字符个数
- fshuff.write((char *)&nFileLen,sizeof(long));
- //·写入编码长度
- fshuff.write((char *)&nCodeIndex,sizeof(int));
- unsigned int nDestLen = nCodeIndex/8;
- if(nDestLen*8 < nCodeIndex)
- nDestLen ++;
- //·写入编码
- fshuff.write(pDest,nDestLen);
- fshuff.close();
- fs.close();
- }
复制代码
简介哈夫曼压缩文件DL结构
前一段时间在接触位图的时候被位图结构触动了,感觉它存储得有条理,于是萌生了为哈夫曼压缩文件定义一个存储结构,称之为哈夫曼压缩文件DL结构。关键是要统一,这篇博文用的是一种结构,另一篇用的又是另一种,纷杂的样式会让初学者发晕,所以统一结构对于学习哈夫曼压缩文件会有很大的帮助。
DL结构组成部分:- 节点个数-用以规定创建哈夫曼树节点个数,以便读入节点域;
- 节点域-用以创建哈夫曼树和产生字符编码;
- 源文件字符数-在解压的时候有用;
- 编码长度(以位为单位)-源文件编码的总长度,以位为单位;
- 编码域-存储所有字符编码的存储域。
为了便于让你不看文字就能明白,看下图,按着这种结构就相当于有了大概的思路。
哈夫曼解压详解
解压的过程就简单很多了,因为一些代码已经在解压过程当中完成,比如哈夫曼树的建立,我们只要设计压缩和解压通用的接口,就可以很简单的按照编码域的内容,将编码翻译成原文。- 读入节点个数;
- 根据1,读入节点域;
- 创建哈夫曼树;
- 读入编码长度;
- 根据4,读入编码域;
- 翻译;
- 写入解压后的文件。
根据编码长度(以bit为单位),可以计算出编码域的大小(以byte为单位),读入编码域就很方便了。其中翻译部分我给出一部分代码,根据哈夫曼树,将编码域的01串按位处理,转换为字符。- Code&1判断最低位是0还是1,从而决定指向left还是right;
- Code>>=1,将Code右移,方便处理下一位;
- 每当翻译出一个字符,就要将当前的哈夫曼指针重新指向root,p = hf.GetRoot()。
- for(i=0; i<nFileLen-1;) //·特地少处理一个字节
- {
- Code = *(temp+(nSrcIndex));
- for(int j=7; j>=0; j--)
- {
- p = (Code&1) ? p->right : p->left;
- if(!p->left && !p->right)
- {
- *(pDest+i) = p->data;
- p = hf.GetRoot();
- i++;
- }
- Code>>=1; //·为了处理下一位,右移一位
- }
- nSrcIndex ++;
- }
- Code = *(temp+(nSrcIndex));
- for(int j=0; j<nOffset; j++)
- {
- p = (Code&1) ? p->right : p->left;
- if(!p->left && !p->right)
- {
- *(pDest+i) = p->data;
- cout << p->data << endl;
- p = hf.GetRoot();
- }
- Code>>=1; //·为了处理下一位,右移一位
- }
复制代码 附哈夫曼压缩算法工程:哈夫曼压缩算法.rar
本文完。Monday, December 26, 2011
本文链接 |
|