信息论课程设计

上传人:208891****657173 文档编号:195143933 上传时间:2023-03-15 格式:DOC 页数:13 大小:197.50KB
收藏 版权申诉 举报 下载
信息论课程设计_第1页
第1页 / 共13页
信息论课程设计_第2页
第2页 / 共13页
信息论课程设计_第3页
第3页 / 共13页
资源描述:

《信息论课程设计》由会员分享,可在线阅读,更多相关《信息论课程设计(13页珍藏版)》请在装配图网上搜索。

1、 欢迎阅读本文档,希望本文档能对您有所帮助!信息论与编码实验报告 班级:学号:姓名:sweety信息与通信工程学院 信息工程系目 录实验一 绘制信源熵函数曲线4实验二 哈夫曼编解码7实验三 离散信道容量131 实验一 绘制信源熵函数曲线一、实验目的1. 掌握离散信源熵的原理和计算方法。2. 熟悉matlab软件的基本操作,练习应用matlab软件进行信源熵函数曲线的绘制。3. 理解信源熵的物理意义,并能从信源熵函数曲线图上进行解释其物理意义。二、实验原理1. 离散信源相关的基本概念、原理和计算公式产生离散信息的信源称为离散信源。离散信源只能产生有限种符号。假定X是一个离散随机变量,即它的取值范

2、围R=x1,x2,x3,是有限或可数的。设第i个变量xi发生的概率为pi=PX=xi。则:定义一个随机事件的自信息量I(xi)为其对应的随机变量xi出现概率对数的负值。即:I(xi)= -log2 p(xi)定义随机事件X的平均不确定度H(X)为离散随机变量xi出现概率的数学期望,即:单位为 比特/符号 或 比特/符号序列。平均不确定度H(X)的定义公式与热力学中熵的表示形式相同,所以又把平均不确定度H(X)称为信源X的信源熵。 必须注意一下几点:a) 某一信源,不管它是否输出符号,只有这些符号具有某些概率特性,必有信源的熵值;这熵值是在总体平均上才有意义,因而是个确定值,一般写成H(X),X

3、是指随机变量的整体(包括概率分布)。b) 信息量则只有当信源输出符号而被接收者收到后,才有意义,这就是给与信息者的信息度量,这值本身也可以是随机量,也可以与接收者的情况有关。c) 熵是在平均意义上来表征信源的总体特征的,信源熵是表征信源的平均不确定度,平均自信息量是消除信源不确定度时所需要的信息的量度,即收到一个信源符号,全部解除了这个符号的不确定度。或者说获得这么大的信息量后,信源不确定度就被消除了。信源熵和平均自信息量两者在数值上相等,但含义不同。d) 当某一符号xi的概率p(xi)为零时,p(xi)log p(xi) 在熵公式中无意义,为此规定这时的 p(xi)log p(xi) 也为零

4、。当信源X中只含有一个符号x时,必有p(x)=1,此时信源熵H(X)为零。例1-1,设信源符号集X=0,1,每个符号发生的概率分别为p(0)=p,p(1)=q,p+ q=1,即信源的概率空间为则该二元信源的信源熵为:H(X) = - p log p q log q = - p log p (1- p) log (1- p) 即:H (p) = - p log p (1- p) log (1- p) 其中0 p 1P=0时,H(0) = 0P=1时,H(1) = 02. MATLAB二维绘图例对函数y= f(x)进行绘图,则用matlab中的命令plot(x, y)就可以自动绘制出二维图来。如果

5、打开过图形窗口,则在最近打开的图形窗口上绘制此图;如果未打开图形窗口,则开一个新的图形窗口绘图。例1-2,在matlab上绘制余弦曲线图,y = cos x,其中0 x 2p。x=0:0.1:2*pi; %生成横坐标向量,使其为0,0.1,0.2,6.2y=cos(x); %计算余弦向量plot(x,y) %绘制图形三、实验内容用matlab软件绘制二源信源熵函数曲线。根据曲线说明信源熵的物理意义。四、实验要求1. 提前预习实验,认真阅读实验原理以及相应的参考书。2. 认真高效的完成实验,实验中服从实验室管理人员以及实验指导老师的管理。3. 认真填写实验报告。五、实验代码:p=0.000000

6、1:0.0001:1; h=-(p).*log2(p)-(1-p).*log2(1-p);plot(p,h)hold on;stem(0.5,1,-);xlabel(p)title(二元信源熵)六、实验结果:七、物理意义:(1) 信源熵为信息的不确定度性,而概率的大小决定了信息量的大小。(2) 由上图可知概率为1时,信息量越小,不确定性最低。概率等于0.5时熵最大。2 实验二 哈夫曼编码一、实验目的1. 掌握哈夫曼编码的原理及编码步骤2. 练习matlab中哈夫曼编码函数的调用及通信工具箱的使用二、实验原理通信的根本问题是如何将信源输出的信息在接收端的信宿精确或近似的复制出来。为了有效地复制信

7、号,就通过对信源进行编码,使通信系统与信源的统计特性相匹配。若接收端要求无失真地精确地复制信源输出的信息,这样的信源编码即为无失真编码。即使对于一个小的时间段内,连续信源输出的信息量也可以是无限大的,所以对其是无法实现无失真编码的;而离散信源输出的信息量却可以看成是有限的,所以只有离散信源才可能实现无失真编码。凡是能载荷一定的信息量,且码字的平均长度最短,可分离的变长码的码字集合都可以称为最佳码。为此必须将概率大的信息符号编以短的码字,概率小的符号编以长的码字,使得平均码字长度最短。变字长编码的最佳编码定理:在变字长码中,对于概率大的信息符号编以短字长的码;对于概率小的信息符号编以长字长的码。

8、如果码字长度严格按照符号概率的大小顺序排列,则平均码字长度一定小于俺任何顺序排列方式得到的码字长度。哈夫曼编码就是利用了这个定理,讲等长分组的信源符号,根据其概率分布采用不等长编码。概率大的分组,使用短的码字编码;概率小的分组,使用长的码字编码。哈夫曼编码把信源按概率大小顺序排列,并设法按逆次序分配码字的长度。在分配码字的长度时,首先将出现概率最小的两个符号相加,合成一个概率;第二步把这个合成的概率看成是一个新组合符号的概率,重复上述做法,直到最后只剩下两个符号的概率为止。完成以上概率相加顺序排列后,再反过来逐步向前进行编码。每一步有两个分支,各赋予一个二进制码,可以对概率大的编为0码,概率小

9、的编为1码。反之亦然。哈夫曼编码的具体步骤归纳如下:1. 统计n个信源消息符号,得到n个不同概率的信息符号。2. 将这n个信源信息符号按其概率大小依次排序: p(x1) p(x2) p(xn)3. 取两个概率最小的信息符号分别配以0和1两个码元,并将这两个概率相加作为一个新的信息符号的概率,和未分配的信息符号构成新的信息符号序列。4. 将剩余的信息符号,按概率大小重新进行排序。5. 重复步骤3,将排序后的最后两个小概论相加,相加和与其他概率再排序。6. 如此反复重复n-2次,最后只剩下两个概率。7. 从最后一级开始,向前返回得到各个信源符号所对应的码元序列,即相应的码字,构成霍夫曼编码字。编码

10、结束。哈夫曼编码产生最佳整数前缀码,即没有一个码字是另一个码字的前缀,因此哈夫曼编码是唯一码。编码之后,哈夫曼编码的平均码长为:哈夫曼编码的效率为:例2-1 设信源共7个符号消息,其概率如下表所示信源消息符号xix1x2x3x4x5x6x7符号概率P( xi )0.200.190.180.170.150.100.01其编码过程如下所示:该哈夫曼码的平均码长为编码效率为:三、实验内容为某一信源进行哈夫曼编码。该信源的字符集为X=x1, x2, x6 ,相应的概率矢量为:P=(0.30,0.25,0.21,0.10,0.09,0.05),即X,P的概率空间为:根据哈夫曼编码算法对该信源进行哈夫曼编

11、码。并计算其平均码长和编码效率。调用matlab哈夫曼编码函数进行哈夫曼编码,与人工编码结果做比较。1. huffmandict函数: 为已知概率分布的信源模型生成哈夫曼编解码索引表。调用方法如下:dict,avglen = huffmandict (symbols, p)dict,avglen = huffmandict (symbols, p, N)dict,avglen = huffmandict (symbols, p, N, variance)四、实验要求1. 提前预习实验,认真阅读实验原理以及相应的参考书。2. 认真高效的完成实验,实验中服从实验室管理人员以及实验指导老师的管理。3

12、. 认真填写实验报告。五、实验代码:symbols = 1:6; p = .30 .25 .21 .10 .09 .05; dict,avglen = huffmandict(symbols,p)temp=dict;for i = 1:length(temp)tempi,2= num2str(tempi,2);endh=-0.30.*log2(0.30)-0.25.*log2(0.25)-0.21.*log2(0.21)-0.10.*log2(0.10)-0.09.*log2(0.09)-0.05.*log2(0.05) n=h/avglentemp六、实验结果:symbols= 1 2 3

13、4 5 6P= 0.3000 0.2500 0.2100 0.1000 0.0900 0.0500dict=1 1x2 double2 1x2 double3 1x2 double4 1x3 double5 1x4 double6 1x4 doubleavglen= 2.3800n= 0.9894temp=1 0 02 0 13 1 14 1 0 15 1 0 0 06 1 0 0 1人工编码:其平均码长和编码效率分别为2.38和98.94%,与调用MATLAB哈夫曼树编码函数进行哈夫曼编码结果一致,但调用函数处理速度更快,效率更高,在进行大量数据运算时。优势明显。3 实验三 离散信道容量一、

14、实验目的1. 掌握离散信道容量的计算。2. 理解离散信道容量的物理意义。3. 练习应用matlab软件进行二元对称离散信道容量的函数曲线的绘制,并从曲线上理解其物理意义。二、实验原理信道是传送信息的载体信号所通过的通道。信息是抽象的,而信道则是具体的。比如二人对话,二人间的空气就是信道;打电话,电话线就是信道;看电视,听收音机,收、发间的空间就是信道。研究信道的目的:在通信系统中研究信道,主要是为了描述、度量、分析不同类型信道,计算其容量,即极限传输能力,并分析其特性。二元对称信道BSC(Binary Symmetric Channel)二进制离散信道模型有一个允许输入值的集合X=0,1和可能

15、输出值的集合Y=0,1,以及一组表示输入和输出关系的条件概率(转移概率)组成。如果信道噪声和其他干扰导致传输的二进序列发生统计独立的差错,且条件概率对称,即这种对称的二进制输入、二进制输出信道称做二元对称信道(或二进制对称信道,简称BSC信道),如下图所示:信道容量公式:三、实验内容BSC信道是DMC信道对称信道的特例,对于转移概率为P(0/1)=P(1/0)=p,P(0/0)=P(1/01)=1-p,求出其信道容量公式,并在matlab上绘制信道容量C与p的曲线。根据曲线说明其物理意义。四、实验要求1. 提前预习实验,认真阅读实验原理以及相应的参考书。2. 认真高效的完成实验,实验中服从实验

16、室管理人员以及实验指导老师的管理。3. 认真填写实验报告五、实验代码:p=linspace(0.0001,0.99999,50);c=log2(2)+p.*log2(p)+(1-p).*log2(1-p); plot(p,c); title(BSC信道)六、实验结果:由图可知:p=0时信道容量是1bit/符号;当P=0.5时,从输出得不到任何关于输入的信息,互信息为0即信道容量为0;信道容量以P=0.5点为中心对称。物理意义:P=0时,无误码概率,从接受的Y可以完全确定发送的X,信道的介入没有产生任何的损伤。P=0.5时,说明损失的信息达到与输入符号信息熵相等的程度。可得C=0时,即信道上没能传送任何信息。 感谢阅读本文档,希望本文档能对您有所帮助!

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!