图像压缩入门:从基础理论到算法分类
1. 引言
随着电信网络和互联网的发展,多媒体数据通信和访问需求呈爆炸式增长。图像数据在多媒体数据中占比重大,占用大量通信带宽。因此,开发高效的图像压缩技术成为学术界和工业界面临的重要挑战。
数字信号虽有诸多优势,但存储和传输需要大量比特。例如,低分辨率彩色视频每秒需超 210 兆比特存储,一小时数字化彩色电影约需 95 吉字节存储,高清电视所需存储量更大。尽管存储成本因技术进步大幅下降,但数据存储和处理需求增长更快。
大多数感官信号存在大量冗余信息,如自然图像平滑区域相邻像素相似,视频中静止或缓慢变化场景的连续帧冗余,超出人耳可听频率范围的音频数据无用。这种人类感知系统无法察觉的冗余称为感知冗余。数据压缩旨在减少数据表示中的冗余,降低存储需求和通信成本,提高存储介质容量和通信带宽。
2. 信息论概念
信息论由 Claude E. Shannon 于 1948 年开创,是数据压缩研究的理论基础。数据表示包含信息和冗余,信息需永久保留以正确解读数据,冗余可按需去除或重新插入。数据压缩本质上是减少冗余的技术,后续可重新插入冗余以恢复原始数据,即解压缩。数据压缩方案开发通常分为建模和编码两个阶段。
2.1 离散无记忆模型与熵
若信息源产生的符号相互统计独立,则该源为离散无记忆源,由源字母表和符号出现概率描述。熵是衡量离散无记忆源每个符号平均信息量的概念,最初由物理学家用于衡量热力学或分子系统的“无序”或“混乱”程度,在统计学中可视为“惊喜”或“不确定性”的度量。
Shannon 定义了源符号概率与对应编码的关系,源符号 $a_i$ 的信息量 $
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



