第八章图像压缩[详版课资]

上传人:8** 文档编号:79011153 上传时间:2022-04-22 格式:PPT 页数:109 大小:3.13MB
收藏 版权申诉 举报 下载
第八章图像压缩[详版课资]_第1页
第1页 / 共109页
第八章图像压缩[详版课资]_第2页
第2页 / 共109页
第八章图像压缩[详版课资]_第3页
第3页 / 共109页
资源描述:

《第八章图像压缩[详版课资]》由会员分享,可在线阅读,更多相关《第八章图像压缩[详版课资](109页珍藏版)》请在装配图网上搜索。

1、第八章 图像压缩1课堂优质 8.1 8.1 基础知识基础知识 8.2 8.2 图像压缩模型图像压缩模型 8.3 8.3 信息论要素信息论要素 8.4 8.4 无误差压缩无误差压缩 8.5 8.5 有损压缩有损压缩 8.6 8.6 图像压缩标准图像压缩标准2课堂优质 为什么要进行图像压缩? 一幅640480的真彩色图像,24b/像素的灰度图像占据64048024=7.37Mb(兆比特),约占0.9MB(字节)的磁盘空间;一个1GB容量的硬盘只能存储1000多幅,而若以每秒25帧的速度显示,其传输速率要求达到184Mb(兆比特/秒) 由此可以看出一幅图像的数据在存储过程中将占据大量的存储容量,在传

2、输过程中所用传输信道也较宽。这样一来,对图像信息的存储、处理、及传输的应用发展造成了很大的限制,因此,图像数据的压缩是非常必要的。3课堂优质 8.1 8.1 基础知识基础知识 数据与信息之间的关系:数据是信息传送的手段;相同数量的信息可以用不同数量的数据表示; 数据压缩指减少表示给定信息量所需的数据量; 图像压缩所解决的问题是尽量减少表示数字图像时所需的数据量;11DRRC 12RnCn相对数据冗余:压缩率: 在数字图像压缩中,可以确定三种基本的数据冗余: 编码冗余、像素间冗余和心理视觉冗余.数据中存在信息冗余,就有可能对图像数据量进行压缩,针对数据冗余的类型不同,可以有多种不同的数据压缩方法

3、.4课堂优质假设用0,1内的一个随机变量 表示图像的灰度,则每个灰度级 出现的概率为8.1.18.1.1编码冗余编码冗余图像灰度可用不同的编码表示图像灰度可用不同的编码表示( )0,1,2,.,1krknp rkLn10( )( )lavgkrkkLl r p r若 为表示为 所用的比特数,那么表示每个像素所需的平均比特数为: krlkrkrkr这样,对一幅大小为MN的灰度图像进行编码所需的比特数为 。avgMNL5课堂优质 720( )2(0.19)2(0.25)2(0.21)3(0.16)4(0.08)5(0.06)6(0.03)6(0.02)2.7avgkrkkLl rpr比特变长编码的

4、说明变长编码的说明灰度图像最简单的编码方式:M比特自然二进制编码099. 037 . 21DR冗余水平6课堂优质图图8.1 用变长编码的数据压缩基本原理的图表表示用变长编码的数据压缩基本原理的图表表示7课堂优质例析1:如果用8位表示下面图像的像素,我们就说该图像存在着编码冗余,因为该图像的像素只有两个灰度,用一位即可表示。8课堂优质图图8.2 8.2 两幅图像和它们的灰度级直方图以及沿着某条线计算的归一化自相关系数两幅图像和它们的灰度级直方图以及沿着某条线计算的归一化自相关系数8.1.2像素间冗余直方图直方图自相自相关系数关系数自相关系数:()()(0)AnnA101()( , ) ( ,)N

5、nyAnf x y f x ynNn 其中其中9课堂优质 像素之间的相关性表明一种重要的数据冗于形式像素冗余。 因为任何给定像素的值可以根据与这些像素相邻的像素进行适当的预测,所以由单个像素携带的信息相对较少.单一像素对于一幅图像的多数视觉共享是多余的;它的值可以通过相邻像素进行推测.行程编码是一种熵编码,其编码原理相当简单,即将具有相同值的连续串用其串长和一个代表值来代替, 该连续串就称为行程,串长称为行程长度。例如,有一字符串“aabbbcddddd”, 则经行程长度编码后, 该字符串可以只用“2a3b1c5d”来表示;行程编码比较适合于二值图像的编码。行程编码10课堂优质行程编码的简单说

6、明行程编码的简单说明(a)原图(b)标记了线100的二值图像(c)线状剖面和二值化门限(d)行程编码1024343个像素,每个像素用1个比特表示12166个行程,每个行程用11比特表示102434312.631216611110.622.63RDCR11课堂优质例析2: 由于任何给定的像素值,原理上都可以通过它的邻居预测到,单个像素携带的信息相对是小的。 对于一个图像,很多单个像素对视觉的贡献是冗余的。这是建立在对邻居值预测的基础上。如:原图像数据:250 253 251 252 250 40bit压缩后数据:250 3 1 2 0 14bit12课堂优质8.1.38.1.3心理视觉冗余心理视

7、觉冗余由于人眼对所有视觉信息感受的灵敏度的不同,因此,在正常的视觉处理过程中,各种信息的相对重要程度不同。那些不重要的信息称为心理视觉冗余. 消除视觉冗余会导致一定量的信息丢失,这一过程常称为”量化”13课堂优质IGS量化过程量化过程例例8.3 通过量化进行压缩通过量化进行压缩(a)256个灰度级的原图像个灰度级的原图像(b)均匀量化为均匀量化为16个灰度级个灰度级(c)用用IGS量化为量化为16个灰度级个灰度级出现假轮廓出现假轮廓14课堂优质 视觉心理冗余:一些信息在一般视觉处理中比其它信息的相对重要程度要小,这种信息就被称为视觉心理冗余。33K15K例析:15课堂优质8.1.48.1.4保

8、真度准则保真度准则保真度准则是一种评价丢失信息的性质和范围的定量方法,主要包括两类(1) 客观保真度准则 (2) 主观保真度准则当信息损失的程度可以表示成初始图像或输入图像以及先被压缩而后被解压缩的输出图像的函数时,就说这个函数是基于客观保真度准则的.假设 表示输入图像, 表示由对输入先压缩得到的 估计量,则 和 之间的误差 可定义为:( , )( , )( , ):( , )( , )( , )f x yf x ye x ye x yf x yf x y则和之间的误差可定义为yxf,yxf,yxf,yxf,yxf,yxe,1010,MxNyyxfyxf总体误差16课堂优质1120011200

9、:( , ) ( , )( , )MNxymsMNxyf x ySNRf x yf x y均方信噪比主观保真度准则主观保真度准则: :均方根误差211010,1MxNyrmsyxfyxfMNe均方信噪比误差17课堂优质8.2 图像压缩模型图像压缩模型图图8.5 一个常用的图像压缩系统模型一个常用的图像压缩系统模型信源信源编码编码信道信道编码编码信道信道信道信道解码解码信源信源解码解码编码器编码器解码器解码器yxf,yxf,信源编码:完成原数据的压缩信道编码:为了抗干扰,增加一些容错、校验位实际上是增加冗余通道:如Internet、广播、通讯、可移动介质18课堂优质8.2.1信源编码器和信源解码

10、器转换器转换器量化器量化器符号编码器符号编码器信道信道信道信道符号解码器符号解码器反向转换器反向转换器(a)信源编码器信源编码器(b)信源解码器信源解码器yxf,yxf,转换器:减少像素冗余,如使用RLE编码,或进行图像变换量化器:减少视觉心理冗余,仅用于有损压缩符号编码器:减少编码冗余,如使用哈夫曼编码19课堂优质 信道带有噪声或易于出现错误,信道编码器和解码器通过向信源编码数据中插入预制的冗余数据来减少信道噪声的影响。 最有用的信道编码技术是由R.W.Hamming于1950提出来的,其基本思想就是在被编码数据中加入足够的位数,以确保可用的码字间变化的位数最小。(具体方法参见教材,本节内容

11、不作要求)8.2.2信道编码器和信道解码器20课堂优质 图像压缩模型中的信源是数字图像,经过取样、量化过程的数字图像信源是离散信源。离散信源可以表示为由N个符号 组成的符号集,各个符号出现的概率为 ,且有8.3信息论要素),(21Naaa,21NpppNiip11在信息论中,若从信源中相继发出的各个符号是相对独立的,则把这一类信源称为“无记忆信源”;如果信源相继发出的各个符号并不是相互独立的,而往往具有统计相关性,这种信源称为“有记忆信源”,图像和视频就是属于有记忆信源。信源的定义:信源指能够产生信息的事物。在数学上信源是一概率场,若信源X可能产生的信息是 ,这些信息出现的概率分别是 ,那么信

12、源可以表示为 ),(),(2121NNpppaaa),(21Naaa,21Nppp21课堂优质信息量的概念信息量的概念 根据信息论,信源发出某一符号的信息量可以用这一符号的不确定性来描述。如果一个符号的出现可以比较准确的预测,那么这个符号就只有很小的信息量,一个符号的出现很难预测,则这个符号就具有较大的信息量。 若一个信源记为X,其中某个信源符号为xk,如果它出现的概率是pk则xk的信息量为kkkppxIlog1log)(如果概率pk用2为底的对数表示,则信息量的单位是比特。信息量概念直观地理解: 一个符号出现的不确定性越大,它的信息量就越大22课堂优质例析:要辨识1到32中选定的某一个数,可

13、先提问:“是否大于16?”,得到回答就消去半数可能事件。每提问一次得到回答,可以得到1bit信息量(二进制位)。这里共需5次,因此所需的信息量为 。532log223课堂优质NiiippXH12log)(熵的概念如果求一个离散、无记忆信源所发出的符号集中各符号的信息量的统计平均值,则有 H(x)就称为信源的熵,其单位是比特/符号。它可以理解为发出一个符号所携带的平均信息量。如果是一个有记忆的信源,并且信源发出的一个符号的概率和此前相继发出的J各符号相关,则信源的熵定义如下JjKkkjkjbaPbaPvzH112)/(log),()/(),(kjbaP是联合概率)/(kjbaP是条件概率24课堂

14、优质离散、无记忆信源的无失真编码定理 设单符号、离散、无记忆信源的熵为H(X),若用二元码对其作变字长、非延续编码,一定可以找到一种编码方式,其平均码长lavg满足 H(X)lavg H(X)+1 由此可以看出,信源的熵是作无失真二元变长字编码时平均码长的下限,这中变字长的统计编码又称为熵编码离散、有记忆信源的无失真编码定理 设单符号、离散、有记忆信源的熵为H(z/v),若用二元码对其作变字长、非延续编码,一定可以找到一种编码方式,其平均码长lavg满足 H(z/v)lavg H(z/v)+1编码定理25课堂优质编码应用中,熵表示信源中消息的平均信息量,在不考虑消息间的相关性时,是无失真代码平

15、均长度比特数的下限。说明该信源编码平均码长最短情况下为7/4,不能再小,否则就会引起错误,而平均码长比此数大许多时,就表明还有待改进。例如81,81,41,21,4321xxxxX47log)(12NiiippXH26课堂优质设信源X表示为信源熵则,各信源符号的信息量:,dcbaX 4/1)()()()(dpcpbpap24log)()()()(2dIcIbIaI22*4/12*4/12*4/12*4/1)(XH编码方法:a,b,c,d用码字00,01,10,11来编码,每个符号用2个比特.平均码长也是2比特.几个熵编码的实例:每一符号的概率为27课堂优质信源熵则,各信源符号的信息量:,dcb

16、aX , 8/1)(, 4/1)(, 2/1)(cpbpap8/1)(dp38log)()(, 24log)(, 12log)(222dIcIbIaI75. 13*8/13*8/12*4/11*2/1)(XH设信源X表示为每一符号的概率为a,b,c,d用码字00,01,10,11来编码22*8/12*8/12*4/12*2/1avgla,b,c,d分别用码字0,10,110,111来编码75. 13*8/13*8/12*4/11*2/1avgl28课堂优质几个重要的结论:信源的平均码长lavg=H(X);也就是说熵是无失真编码的下界.如果所有I(xk)都是整数,且,可以使平均码长等于熵.对非等

17、概率分布的信源,采用不等长编码其平均码长小于等长编码的平均码长.如果信源中各符号的出现概率相等,信源熵值达到最大29课堂优质编码的分类 根据对象的不同,可以分为静止图像编码、活动图像编码、传真文件编码;黑白图像编码、彩色图像编码;二值图像编码、多值图像编码等等; 根据压所过程有无信息损失,可分为有损编码和无损编码,或者称为不可逆编码和可逆编码; 根据编码算法中是否采用自适应技术,可分为自适应编码和非自适应编码; 最常见的方法是按照算法的原理进行分类,如预测编码,变换编码,统计编码等等。30课堂优质8.4.1 8.4.1 变长编码变长编码8.4 8.4 无误差压缩无误差压缩霍夫曼编码步骤如下:(

18、1)将信源符号按其出现概率递减顺序排列;(2)将最小的概率的两个信源符号进行组合相加, 得到一辅助符号,计算其出现的概率;(3)将前面得到的辅助符号与其余符号一起重新依出现概率递减顺序排列,再将最小概率的两个符号组成一个新的辅助符号,计算其出现概率;(4)重复第(3)步,直到出现只有两个信源符号为止;(5)从最小信源开始,依次对简化后信源中概率最小的两个符号用0和1(或者1和0)进行编码,一直到原始的信源;(6)按照从右到左的方式写出每个信源符号所对应的1、0序列, 即可得到非等长的 Huffman码.31课堂优质原始信源原始信源 简化信源简化信源编码符号概率 1 2 34 100011010

19、00101001011 a2a6a1a4a3a50.40.30.10.10.06 0 00.04 1 10.40.30.10.1 00.1 1 10.40.30.2 0 00.1 1 10.40.3 0 0 0.3 1 10.6 00.4 1 1符号比特/2 . 2)5)(04. 0()5)(06. 0()4)(1 . 0()3)(1 . 0()2)(3 . 0() 1)(4 . 0(avgl符号比特/14. 2log)(12NiiippXH霍夫曼编码实例32课堂优质Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04例析33课堂优质Huffman编码

20、输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1例析34课堂优质Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1例析35课堂优质Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3例析36课堂优质Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第

21、一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.4例析37课堂优质Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101例析38课堂优质Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101S2=00例析39

22、课堂优质Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101S3=011例析40课堂优质Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101S4=0100例析41课堂优质Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.

23、04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101S5=01010例析42课堂优质Huffman编码输入S1S2S3S4S5S6输入概率0.40.30.10.10.060.04第一步0.40.30.10.10.1第二步0.40.30.20.1第三步0.40.30.3第四步0.60.40101010101S6=01011例析43课堂优质Huffman树结构例析下面是一首英文歌曲:Because Im bad, I am badcome onBad, badreally, really badYou know Im

24、bad, Im badBad, badreally, really badYou know Im bad, Im badcome on, you knowBad, bad-really, really bad44课堂优质Huffman树结构例析短语符号频率概率BecauseB10.03ImI60.17BadB150.43Come onC20.06ItI10.03ReallyR60.17You knowY40.1145课堂优质Huffman树结构例析S6S5S3S2S1B 0.43(Bad)10(1.00)S40100I 0.17(Im)R 0.17(Really)Y 0.11(You know

25、)C 0.06(Come on)B 0.03(Because)I 0.03(It)000001011010000000010000000001(0.57)(0.23)(0.12)(0.06)(0.34)46课堂优质Huffman树结构例析短语符号频率概率代码长度编码BecauseB10.03500001ImI60.173011BadB150.4311Come onC20.0640001ItI10.03500000ReallyR60.173010You knowY40.113001平均码长R=0.03x5+0.17x3+0.43x1+0.06x4+0.03x5+0.17x3+0.11x3=2.3

26、2熵H=-(0.03xlog0.03+0.17xlog0.17+0.43xlong0.43+0.06xlog0.06+0.03xlog0.03+0.17xlog0.17+0.11xlog0.11)=2.29编码前:xlog27=98.3 编码后:位,压缩比约47课堂优质原始信源原始信源 简化信源简化信源编码符号概率 1 2 34 01101100000100011 a1a2a3a4a5a60.250.250.200.150.10 0 00.05 1 10.250.250.200.15 00.15 1 10.30.250.25 0 00.20 1 10.450.3 0 0 0.25 1 10.5

27、5 00.45 1 1符号比特/45. 2)4)(05. 0()4)(10. 0()3)(15. 0()2)(20. 0()2)(25. 0()2)(25. 0(avgl符号比特/42. 2log)(12NiiippXH霍夫曼编码实例48课堂优质(1)Huffman编码构造程序是明确的,但编出的码不是唯一的,其原因之一是两个概率分配码字“0”和“1”是任意选择的(大概率为“0”,小概率为“1”,或者反之)。第二原因是在排序过程中两个概率相等,谁前谁后也是随机的。这样编出的码字就不是唯一的。(2)Huffman编码结果,码字不等长,平均码字最短,效率最高,但码字长短不一,实时硬件实现很复杂(特别

28、是译码),而且在抗误码能力方面也比较差。(3)Huffman编码的信源概率是2的负幂时,效率达100%,但是对等概率分布的信源,产生定长码,效率最低,因此编码效率与信源符号概率分布相关,故Huffman编码依赖于信源统计特性,编码前必须有信源这方面的先验知识,这往往限制了哈夫曼编码的应用。(4)Huffman编码只能用近似的整数位来表示单个符号,而不是理想的小数,这也是Huffman编码无法达到最理想的压缩效果的原因。49课堂优质 算术编码不是向霍夫曼编码那样用一个特定的代码表示一个信源符号,而是用个浮点数值表示一个信源符号。 算术编码将编码的信源符号表示成实数半开区间0,1)中的一个数值区间

29、,这个区间随着信息流中每一信源符号的加入逐步减小,每次减小的程度取决于当前加入信源符号的先验概率,在该区间内选择一个代表性的小数,转化为二进制作为实际的编码输出。 信源中的每个元素都要缩短为一个区间。信源中元素越多,所得到的区间就越小,当区间变小时,就需要更多的数位来表示这个区间。采用算术编码每个符号的平均编码长度可以为小数。 算术编码的过程将产生一个大于或等于0,并且小于1的一个数值,这个数值唯一地被解码,可以精确地恢复原始的信源符号流。算术编码算术编码50课堂优质算术编码实例信源符号先验概率分配范围a1a2a3a40.20.40.20.20,0.2)0.2,0.6)0.6,0.8)0.8,

30、1)low = low + range * range_low range和low为上一个被编码符号的范围和低端值;high = low + range * range_high rang_low 和range_high为被编码符号已给定的出现概率范围的低端值和高端值. .符号编码范围的确定准则编码过程输出数值范围初始编码a1编码a2编码a3编码a4编码a20,1)0,0.2)0.04,0.12)0.088,0.104)0.1008,0.104)0.10144,0.10272)51课堂优质 1 a4 0.2 a4 0.12 a4 0.104 a4 0.104 a4 0.10272 a4 a3

31、a3 a3 a3 a3 a3 a2 a2 a2 a2 a2 a2 0 a1 0 a1 0.04 a1 0.088 a1 0.1008 a1 0.10144 a1 编码符号流 a1 a2 a3 a4 a2可以用可以用0.101440.10144表示表示“a a1 1a a2 2a a3 3a a4 4a a2 2”的惟一编码的惟一编码52课堂优质算术编码的解码过程(1)通过查看哪一个信源符号拥有已编码信息所落入的数值范围,找到消息中的第一个信源符号。例如前面编码实例中的0.10144在0,0.2)之间,所以第一个符号为“a1” (2) 从编码数值中消除第一个符号的影响,即首先减去“a1”的下限值

32、,然后除以“a1”对应的范围宽度,即 (0.10144-0)/0.2=0.50720(3)查表找到该结果中落入哪一个符号对应的数值范围,得到第二个符号;(4)重复(2)(3)将第二个符号影响消除,再找到第三个符号。方法重复直到解出整个符号流。 需要注意的是,一个符号流的末尾应有一个结束符作结束标记,它随信源符号一起编码。被解的数值先验概率分配范围0.101440.50720.7680.840.20a1a2a3a4a20,0.2)0.2,0.6)0.6,0.8)0.8,1.0)0.2,0.6)53课堂优质算术编码的特点:1. 实际的计算机精度有限,会产生溢出问题;2. 对整个消息只产生一个编码,

33、因此译码器必须接受到这个实数后才能译码;3. 对错误很敏感;54课堂优质8.4.2 8.4.2 LZW编码编码 LZW编码是一种降低像素间冗余度的无误差压缩编码方法。 这种编码对相继出现的、由单个信源符号所构成的、长度可变的符号序列,用固定长度的码字进行编码,且不需要了解有关被编码符号的出现先验知识。 LZW编码的基本思想是, 建立一个包含所有待编码信源符号的码书或“字典”,将输入的信源符号映射成定长的码字输出。实际上输出的是字典中的位置。55课堂优质LZWLZW编码算法的具体过程:编码算法的具体过程: 将字典初始化为包含所有可能的单个信源符号,并将当前识别将字典初始化为包含所有可能的单个信源

34、符号,并将当前识别 序列序列P初始化为空;初始化为空;(2 2) 当前信源符号当前信源符号C C的内容为当前识别序列中的下一个信源符号;的内容为当前识别序列中的下一个信源符号;(3 3) 判断判断P+CP+C是否在字典中是否在字典中 (1) (1) 如果如果“是是”, 则开始识别下一个信源符号则开始识别下一个信源符号C C,令,令P=PP=PC C; (2) (2) 如果如果“否否”,则,则 输出当前识别序列输出当前识别序列P P的位置到码字流;的位置到码字流; 将将P PC C添加到字典中;添加到字典中; 令当前识别序列令当前识别序列P = CP = C;(4 4) 判断输入字符流中是否还有

35、码字要编码判断输入字符流中是否还有码字要编码 (1) (1) 如果如果“是是”,就返回到步骤,就返回到步骤2 2; (2) (2) 如果如果“否否” 把当前识别序列把当前识别序列P P的位置输出到码字流的位置输出到码字流; ; 结束。结束。56课堂优质 P C57课堂优质1. 编码过程中的字典是在数据编码的过程中产生的,解码的时候同样能建立一个相同的解码书;2. 由于字典的大小有限,因此,通常情况下需要一个处理字典溢出的策略;简单的解决办法是当字典内的位置将被占满时重新初始化,然后用重新初始化的字典继续编码58课堂优质 位平面编码的基本思想就是将一幅多级图像分解为一系列二值图像,然后采用二值图

36、像编码的方式对每幅二值图像进行编码。 位平面分解:8.4.3 8.4.3 位平面位平面编码编码59课堂优质m比特的格雷码(gray code)m比特的灰度图像的格雷码表示如下其中表示异或运算这种编码方式的唯一特性是连续码字只在一比特位置上不同,因灰度级小的变化不太可能影响所有m个位平面60课堂优质数值 自然码 格雷码 0 0000 0000 1 0001 0001 2 0010 0011 3 0011 0010 4 0100 0110 5 0101 0111 6 0110 0101 7 0111 0100 8 1000 1100 9 1001 110110 1010 111111 1011 1

37、11012 1100 101013 1101 101114 1110 100115 1111 10000111aaaamm0121ggggmm 自然码格雷码61课堂优质行程编码 二值图像通常采用行程编码进行无损压缩; 行程编码(Run Length Encoding)是一种利用空间冗余度压缩图像的方法,对某些相同灰度级成片连续出现的图像,行程编码也是一种高效的编码方法。 行程编码是一种熵编码,其编码原理相当简单,即将具有相同值的连续串用其串长和一个代表值来代替, 该连续串就称为行程,串长称为行程长度。 62课堂优质每一行图像都由k段长度为lk、灰度值为gk的片段组成,那么该行图像就可以由一系列

38、的偶对(gk,lk)来表示。每个偶对就是一个灰度级行程。Gray level Pixel 63课堂优质 行程编码分为定长和不定长编码两种。定长编码是指编码的行程长度所用的二进制位数固定,而变长行程编码是指对不同范围的行程长度使用不同位数的二进制位数进行编码。使用变长行程编码需要增加标志位来表明所使用的二进制位数。 行程编码比较适合于二值图像的编码,一般用于量化后出现大量零系数连续的场合,用行程来表示连零码。如果图像是由很多块颜色或灰度相同的大面积区域组成的,那么采用行程编码可以达到很高的压缩比。如果图像中的数据非常分散,则行程编码不但不能压缩数据,反而会增加图像文件的大小。为了达到较好的压缩效

39、果,一般不单独采用行程编码, 而是和其他编码方法结合使用。64课堂优质8.4.4无损预测编码 无损预测编码又称信息保持型预测编码,因为在编码过程中不引入量化,因此是一种不产生量化误差的预测编码系统; 预测编码的基本思想是建立在图像中相邻像素间高度相关的事实基础上; 预测编码的技术特点是不直接传送像素值,而对实际像素值与其预测值之间的差值进行编码和传送,这种差值就是预测误差;65课堂优质编码器编码器解码器解码器66课堂优质nnnffe预测误差由符号编码器编码采用变长编码的方式,生成压缩数据流的一个元素.预测编码系统的解码过程是通过解码器解码后得到的en序列与解码端的预测值相加,从而得到序列fnn

40、nnfef由于预测误差是由当前像素前已经穿出的若干相邻像素为参考像素估计出来的,因此,预测误差可以认为是当前像素所携带的新信息,在传送信息流时,后续时刻传送的只是新信息,从而可以实现数据压缩。67课堂优质miininfaroundf1)(), 2 , 1(miai是预测系数round为四舍五入函数预测编码中的最基本预测方法是采用几个像素值的线性加权和的形式,m称为预测器的阶。如果预测系数ai是固定不变的常数,则称为线性预测。线性预测法通常称为差值脉冲编码调制法(Differential Pulse Code Modulation),简称DPCM。68课堂优质对于图像数据压缩而言,常见的几种线性

41、预测方案如下:(1)前值预测,即(2)一维预测,即 用同当前行的前面几个像素值进行预测。(3)二维预测,即不但用当前行的前面几个像素值,还要用前几行中的像素值一起来预测,也叫帧内预测。 (4)三维预测,除了用当前行和前面几行的像素外,还要考虑先前帧的像素来进行预测,也叫帧间预测; (预测编码实例如教材365366页)1nnaff) ),(),(1miiniyxfaroundyxf69课堂优质8.5 有损压缩 为了获得更高的图像压缩比,充分利用人的主观视觉特性,引入量化,在不引起图像可察觉失真,即在不引起图像主观质量明显下降的情况下,实现更进一步的数据压缩,由于量化必然产生量化噪声,丢失一部分信

42、息,客观失真不可避免,这就是有损编码。无失真编码的压缩比在13倍左右。 而有失真编码可以取得更高的压缩比。 有损编码是以在图像重构的准确度上做出让步而换取压缩能力增加的概念为基础的。如果产生的失真是可以容忍的,则压缩能力上的增加就是有效的。 有损压缩主要包括:有损压缩主要包括:有损预测编码,变换编码70课堂优质 在无损预测编码模型上添加一个数字量化器,并分析在重构准确度和压缩性能之间得到的折中,就构成有损预测编码系统。 量化器的作用是将预测误差映射成有限范围内的输出,表示为: ,量化器决定了有损预测编码的相关的压缩比和失真量。8.5.1有损预测编码ne 71课堂优质72课堂优质1nnf af他

43、其当0nnee 73课堂优质设输入序列为设输入序列为14,15,14,15,13,15,15,14,20,26,27,28,27,27,14,15,14,15,13,15,15,14,20,26,27,28,27,27,29,37,47,62,75,77,78,79,80, 81,82,83.29,37,47,62,75,77,78,79,80, 81,82,83.用德尔塔调制编码。用德尔塔调制编码。74课堂优质最佳预测器 在预测编码过程中,一个线性预测器的性能好坏,直接影响到数据率的大小。 最佳线性预测器就是选择合适的系数使得编码器中误差信号的均方误差最小,即 取得最小。22nnnffEeE

44、75课堂优质最佳预测器的设计,就是要通过计算信号的均方误差 的最小值,从而确定预测系数aian。因此,可以通过对各预测系数求导,令导数为零来计算各预测系数的值,则有212miininnfafEeE0)(22inninaffEaeE假设 ,则有0nfE2nfDrRa176课堂优质 其中TmnnnnnnffEffEffE21rTmaaa21aR211212111mnmnnmnnmnnnmnnnnnnffEffEffEffEffEffEffErRa1由此也可以看出, 对任意图像的最优线性预测的系数a仅仅依赖于原始图像中像素的自相关性; 预测模型的复杂程度取决于线性预测中所使用的以前样本数目,样本数目

45、越多,预测器也越复杂; 对于样本点的选取,一般来说,刚开始时,随着样本点个数m的增加, 会减少,但可以证明,当m足够大时,再增加样本点数, 也不会减少。2()nE e2()nE e77课堂优质最优量化最优量化在有损预测编码过程中,量化的过程会导致图像的失真,因此在量化比特数确定的情况下,可以根据不同的优化准则和输入概率密度函数选择最佳的量化方法,或者说在保证量化误差满足应用要求,在视觉不可觉察的情况下,尽可能减少量化比特数;本书只考虑比特数确定的情况下,根据量化均方误差最小原则设计最优量化器。 78课堂优质量化的均方误差表示如下 Kkssiiidsspts1221要使量化的均方误差最小则分别对

46、si和ti求导,并令导数为零则可以求出si和ti的值。 02212iiiiiiisptssptss 0isp如果 ,则有 122 , 121Lkttsiii79课堂优质 0212iissiiisptst Kkdsspdsssptiiiissssi2 , 111从上面可以看出ti是si和si+1的形心。80课堂优质2.2.变换编码变换编码n典型的变换编码系统中编码器有四步:n(1)子图像分割n(2)变换n(3)量化n(4)编码子图像子图像分割分割正变换正变换量化器量化器反变换反变换符号解符号解码器码器符号编符号编码器码器合并子合并子图像图像输入图像输入图像压缩图像压缩图像压缩图像压缩图像解压缩图

47、像解压缩图像81课堂优质在变换编码中值得注意的两点在变换编码中值得注意的两点: :(1)先将整幅图像分成的子图像后分别处理,主要是小块图像的变换计算容易,距离较远的像素之间的相关性比距离较近的像素之间的相关性小;(2)压缩并不是在变换步骤中取得,而是在量化变换系数和编码时取得的。82课堂优质(1) (1) 变换选择变换选择1010),(),(),(NxNyvuyxgyxfvuT1, 1 , 0,Nvu在变换编码中变换方式的选择取决于可允许的重建误差和可用的计算资源;假设一幅NN图像,其正向离散变换为T(u,v),则图像的正变化和反变换过程可以表示如下 正变换反变换1010),(),(),(Nu

48、NvvuyxhvuTyxf1, 1 , 0,Nyx),(),(vuyxhvuyxg分别称为正向和逆向变换核函数83课堂优质几种典型的核函数NuvyuxjeNvuyxg)(221),(傅立叶变换10)(2102),(1),(NxNuvyuxjNyeyxfNvuFNuvyuxjevuyxh)(2),(84课堂优质二维离散余弦变换(二维离散余弦变换(DCTDCT)NvyNuxyxfvucvuFNxNy2) 12(cos2) 12(cos),(),(),(101001, 1 , 0,NvuNvyNuxvuFvucyxfNuNv2) 12(cos2) 12(cos),(),(),(101011, 1 ,

49、 0,Nyx2104N0102/102/1),(uvvuuvvuvuc且由于二维离散余弦变换的可分离性,二维DCT可以用一维DCT来实现85课堂优质Wash-Hadamard变换(WHT))()(1010) 1( )(1)(ubxbNxiNiixfNuB1, 1 , 0Nu)()(1010) 1( )()(ubxbNuiNiiuBxf1, 1 , 0Nx一维离散哈达玛变换一维离散哈达玛变换 一维离散哈达玛反变换一维离散哈达玛反变换86课堂优质)()()()(1010210) 1( ),(1),(vbybubxbNxNyiNiiiiyxfNvuB1, 1 , 0,Nvu)()()()(10101

50、0) 1( ),(),(vbybubxbNuNviNiiiivuByxf1, 1 , 0,Nyx87课堂优质 在变换编码中,子图像的大小将影响变换编码误差和计算的复杂程度。根据实践证明子图像尺寸取44、88、1616适合作图像的压缩,这是因为: (1)如果子图像尺寸取得太小,虽然计算速度快,实现简单,但压缩能力有一定的限制。 (2)如果子图像尺寸取得太大,虽然去相关效果变好,因为象DFT、DCT等正弦型变换均具有渐近最佳性,但也渐趋饱和。若尺寸太大,由于图像本身的相关性很小,反而使其压缩效果不显示,而且增加了计算的复杂性。(2) (2) 子图像尺寸选择子图像尺寸选择88课堂优质 这里考虑对子图

51、像经过变换后,要截取的变换系数的数量和保留系数的精度。在大多数变换编码中,选择保留的系数办法有以下二种: 根据最大方差进行选择的,称为区域编码。 根据最大值的量级选择,称为阈值编码。 而整个对变换后的子图像的截取、量化和编码过程称为比特分配 (3) (3) 比特分配比特分配89课堂优质区域编码区域编码具有最大方差的变换系数携带着图像大部分信息并在编码处理的过程中应该保留下来。最大方差的系数通常被定位在图像变换的原点周围。最大方差的系数通常被定位在图像变换的原点周围。区域取样处理可看成每个区域取样处理可看成每个T(u,v)与相应的区域模板中的元素相乘。与相应的区域模板中的元素相乘。(a)(b)9

52、0课堂优质典型的典型的阈值阈值模板模板 和和 系数排序序列系数排序序列阈值编码阈值编码(门限编码门限编码)对任何子图像,最大量级的变换系数对重构子图像的品质具有最大的影响.因为不同子图像的最大系数的位置是变化的,所以通常将 m(u,v)T(u,v) 的元素重新排列成一个一维行程编码.91课堂优质有有3 3种基本途径对一幅变换后的子图像进行门限处理种基本途径对一幅变换后的子图像进行门限处理( (即生成子即生成子图像门限模板函数图像门限模板函数) ) 对所有的子图像使用单一的全局门限对所有的子图像使用单一的全局门限; ; 对不同图像的压缩等级不同对不同图像的压缩等级不同. . 对每幅图像使用不同的

53、门限对每幅图像使用不同的门限; ; 对每幅子图像丢弃相同数目的系数对每幅子图像丢弃相同数目的系数, ,编码率恒定编码率恒定. . 门限随子图像中每个系数的位置函数的变化而变化门限随子图像中每个系数的位置函数的变化而变化. . 编码率变化编码率变化, ,但是可以将门限处理和量化过程结合起来但是可以将门限处理和量化过程结合起来. .92课堂优质是 取阈值和量化近似,Z是变换的归一化矩阵使用下式代替使用下式代替m m( (u u, ,v v) )T T( (u u, ,v v), ), 将取阈值和量化结合起来将取阈值和量化结合起来),(),(),(vuZvuTroundvuT),(vuT) 1, 1

54、() 1 , 1()0 , 1() 1, 1 () 1 , 1 ()0 , 1 () 1, 0() 1 , 0()0 , 0(nnZnZnZnZZZnZZZZ),(vuT93课堂优质对对Z(u,v)赋予某个常数赋予某个常数c 94课堂优质使用使用8 88 DCT8 DCT系数的系数的12.5%12.5%门限编码门限编码区域编码区域编码利用利用DCT标准化阵列的压缩标准化阵列的压缩34:167:18:1误差95课堂优质8.6 图像压缩标准图像编码技术的发展和广泛应用促进了许多有关国际标准的制定。这方面的工作主要是由国际标准组织(ISO)和国际电信联盟(ITU)进行的。到目前为止,由上述2个组织制

55、定的有关图象编码的国际标准已覆盖了从二值到了灰度(彩色)值的静止和运动图象。根据各标准所处理图象的类型不同,我们可将它们分成以下几类:(1)二值图象压缩;(2)静止灰度(和彩色)图象压缩;(3)序列(连续)灰度(和彩色)图象压缩。96课堂优质二值图象压缩标准G3和G4这两个标准是由CCITT的两个小组(Group3和Group4)负责制定的。它们最初是CCITT为传真应用而设计的,现也用于其它方面。G3采用了非自适应、1D游程编码技术。对每组N行(N=2或N=4)扫描线中的后N-1行也可以用2-D方式编码。G4是G3的1种简化版本,其中只使用2-D编码。CCITT在制定标准期间曾选择了1组共8

56、幅具有一定代表性的“试验”图用来评判各种压缩方法。它们既包括打印的文字,也包括用几种语言手写的文字,只外还有少量的线绘图。G3对它们的压缩率约为15:1。G4的压缩率一般比G3要高1倍。97课堂优质JBIGJBIG这个标准是由上述2个组织的二值图联合组(joint believe imaging group , JBIG)于1991年制定的。因为G3和G4是基于非自适应技术的,所以对半调灰度(halftone)图编码时常产生扩展(而不是压缩)的效果。JBIG的目标之一就是要采用1种自适应技术以解决这个问题,另外也想使压缩方法可以用于与上述8幅试验图不同类型的图,以及渐进(累进)的传输与重建应用

57、。由于采用了自适应技术,JBIG的编码效率比G3和G4要高。对于打印字符的扫描图象,压缩比可提高1.11.5倍。对于计算机产生成的打印字符图象,压缩比可提高约5倍,对于抖动或半调表示的“灰度”图象,压缩比可提高230倍。98课堂优质静止图象压缩标准JPEG目前所用对静止灰度或彩色图象的压缩标准称为JPEG(joint picture expert group)。它是由上述2个组织的灰度图联合专家组制定于1991年开始使用的。JPEG是面向静态图像编码的国际标准。在相同图像质量条件下, JPEG文件拥有比其他图像文件格式更高的压缩比。JPEG目前被广泛应用于多媒体和网络程序中,是现今万维网中使用

58、最广泛的两种图像文件格式之一。JPEG是一种有损压缩, 即在压缩过程中会丢失数据,每次编辑JPEG图像后,图像就会被重复压缩一次, 损失就会有所增加。99课堂优质序列图象压缩标准序列(运动)灰度图象或彩色图象压缩的国际标准主要有:1)H.261; 2)MPEG-I;3)MPEG-II;40MPEG-IV。另外正在制订并已纳入MPEG这个国际标准序列中的还有MPEG-VII。100课堂优质DCT编码101课堂优质DCT编码102课堂优质DCT编码103课堂优质DCT编码104课堂优质DCT编码105课堂优质DCT编码106课堂优质DCT编码107课堂优质6.8 混合编码 利用邻近像素在灰度上的相关性,对某一象素的灰度预测偏差进行编码。利用整块子图像所有像素在灰度上的相关性,对变换系数进行编码。既用到预测编码、又用到变换编码的编码方法。108课堂优质6.9 基于图像特征提取的压缩方法 图像中的信息只有一部分或很小的一部分对接收者是有用的,应予以保留、存储或传输;而其余对接收者来说是无用的信息,可认为是多余的。 要求事先能对原始图像中所含的信息进行分类、鉴别。 编码时只对具有某些特征的有用信息进行编码,这样,可以使图像数据得到较大的压缩。109课堂优质

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!