GZipStream实现压缩以及出现的问题

本文介绍了使用.NET Framework下的GZipStream进行数据压缩时遇到的问题,特别是当压缩后的数据小于4KB时,解压会失败。文章揭示了问题的原因在于GZipStream的工作机制,并提供了正确的使用方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在抓取页面的过程中,在存储抓取到的页面内容的时候我需要先将页面压缩再存储,为了使用上的方便,采用了2.0下的GZipStream来进行压缩。

引用如下:

  1. usingSystem.IO;
  2. usingSystem.IO.Compression;
  3. ......
  4. publicstaticbyte[]Compress(byte[]data)
  5. {
  6. MemoryStreamstream=newMemoryStream();
  7. GZipStreamgZipStream=newGZipStream(stream,CompressionMode.Compress);
  8. gZipStream.Write(data,0,data.Length);
  9. //....暂时先在注释的位置卖点关子
  10. returnstream.ToArray();
  11. }
  12. publicstaticbyte[]Decompress(byte[]data)
  13. {
  14. MemoryStreamstream=newMemoryStream();
  15. GZipStreamgZipStream=newGZipStream(newMemoryStream(data),CompressionMode.Decompress);
  16. byte[]bytes=newbyte[4096];
  17. intn;
  18. while((n=gZipStream.Read(bytes,0,bytes.Length))!=0)
  19. {
  20. stream.Write(bytes,0,n);
  21. }
  22. returnstream.ToArray();
  23. }

上面的代码使用起来似乎是没有什么问题的(如果你不仔细做测试的话),但是当我对各种大小的页面进行测试后,发现如果压缩后byte[]长度<4K,那么问题出来了:没法解压,解压函数中Read返回结果总是0。闻一多先生曾经在演讲中说“郁闷啊,郁闷,这是某集团的郁闷,恰恰是微软的光荣(笔者注:我觉得应该属于微软bug)”。

我一度怀疑是不是Decompress函数中的bytes数组长度设置长了,后来把长度设置的很小,但是解压后还是那样,返回0。真想去和盖茨理论理论。

不过幸运的是,我测试发现了这个4K下限制,所以Google了下“GZipStream 4K”,哈哈,在国外的一论坛(http://www.dotnetmonster.com/Uwe/Forum.aspx/dotnet-framework/19787/Problem-with-the-GZipStream-class-and-small-streams)里面终于找到了答案:原来GZipStream存取数据的时候是以4K为块进行存取的。所以在压缩的时候,在返回stream.ToArray()前应该先gZipStream.Close()(也就是上面俺卖关子的那里),原因是GZipStream是在Dispose的时候把数据完全写入。你说冤吗?我明明已经Write了,竟然还要我再Close才可以。。。

继续郁闷......还不知道会出现什么更加有意思东西哦

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值