武汉理工大学信息工程学院现代数字信号处理课程论文

上传人:痛*** 文档编号:66216122 上传时间:2022-03-27 格式:DOC 页数:16 大小:323KB
收藏 版权申诉 举报 下载
武汉理工大学信息工程学院现代数字信号处理课程论文_第1页
第1页 / 共16页
武汉理工大学信息工程学院现代数字信号处理课程论文_第2页
第2页 / 共16页
武汉理工大学信息工程学院现代数字信号处理课程论文_第3页
第3页 / 共16页
资源描述:

《武汉理工大学信息工程学院现代数字信号处理课程论文》由会员分享,可在线阅读,更多相关《武汉理工大学信息工程学院现代数字信号处理课程论文(16页珍藏版)》请在装配图网上搜索。

1、武汉理工大学工程硕士课程论文现代数字信号处理课程论文现代数字信号处理题 目:BP神经网络算法改进 学院(系): 信息工程学院 专业班级: 电子与通信112班 学生姓名: 王 俊 指导教师: 刘 泉 2011年 12月 1日16摘要神经网络是一门发展十分迅速的交叉学科,它是由大量的处理单元组成非线性的大规模自适应动力系统。神经网络具有分布式存储、并行处理、高容错能力以及良好的自学习、自适应、联想等特点。目前已经提出了多种训练算法和网络模型,其中应用最广泛的是前馈型神经网络。前馈型神经网络训练中使用最多的方法是误差反向传播(BP)学习算法。但随着使用的广泛,人们发现BP网络存在收敛速度缓慢、易陷入

2、局部极小等缺陷。于是我们就可以分析其产生问题的原因,从收敛速度和局部极小两个方面分别提出改进的BP网络训练方法。 关键词:神经网络,收敛速度,局部极小,BP网络,改进方法AbstractNeural network is a cross discipline which now developing very rapidly, it is the nonlinearity adaptive power system which made up by abundant of the processing units . The neural network has features such a

3、s distributed storage, parallel processing, high tolerance and good self-learning, adaptive, associate, etc. Currently various training algorithm and network model have been proposed , which the most widely used type is Feedforward neural network model. Feedforward neural network training type used

4、in most of the method is back-propagation (BP) algorithm. But with the use of BP network, people find that the convergence speed is slow, and easy fall into the local minimum. So we can analyze the causes of problems, from the two aspects respectively we can improve the BP training methods of neural

5、 network.Keywords:neural network,convergence speed,local minimum,BP neural network,improving methods目录摘要2Abstract21 神经网络概述41.1 生物神经元模型41.2 人工神经元模型42 BP神经网络72.1 BP神经网络特点72.2 BP神经网络介绍83 BP神经网络算法改进103.1 BP网络训练过程介绍103.2 动态调节学习率的改进方法103.3 BP神经网络收敛速度的改进方法123.4局部极小问题的几种改进方案134 总结155 参考文献161 神经网络概述1.1 生物神经元

6、模型人脑是由大量的神经细胞组合而成的,它们之间相互连接。每个神经细胞(也称神经元)具体如图1.1所示的结构。图1.1 生物神经元模型脑神经元由细胞体、树突和轴突构成。细胞体是神经元的中心,它一般又由细胞核、细胞膜等构成。树突是神经元的主要接受器,它主要用来接受信息。轴突的作用主要是传导信息,它将信息从轴突的起点传到轴突末梢,轴突末梢与另一个神经元的树突或细胞体构成一种突触的机构。通过突触实现神经元之间的信息传递。1.2 人工神经元模型人工神经网络是利用物理器件来模拟生物神经网络的某些结构和功能。图1.2是最典型的人工神经元模型。图1.2 人工神经元模型这个模型是1943年心理学家McCullo

7、ch和科学家W.Pitts在分析总结神经元基本特性的基础上首先提出的M-P模型,它是大多数神经网络模型的基础。-代表神经元i与神经元j之间的连接强度(模拟生物神经元之间突触连接强度),称之为连接权;-代表神经元i的活跃值,即神经元状态;-代表神经元j的输出,即是神经元i的一个输入;-代表神经元的阐值。函数f表达了神经元的输入输出特性。在M-P模型中,f定义为阶跳函数:人工神经网络是一个并行与分布式的信息处理网络结构,该网络结构一般由许多个神经元组成,每个神经元由一个单一的输出,它可以连接到许多其他的神经元,其输出有多个连接通路,每个连接通路对应一个连接权系数。严格来说,神经网络是一个具有如下性

8、质的有向图:1. 对于每个结点有一个状态变量;2. 结点i到结点j有一个连接权系数;3. 对于每个结点有一个阈值;4.对于每个结点定义一个变换函数,最常见的情形为。图1.3表示了两个典型的神经网络结构,上为前馈网络,下为反馈网络。图1.3 典型的神经元网络结构2 BP神经网络人工神经网络是一种信息处理系统,它有很多种模型。其中有一种用误差传播学习算法(Error Back Propagation即BP算法)进行训练的多层前馈神经网络,简称为BP网络。BP神经网络模型是人工神经网络的重要模型之一。它有广泛的应用,主要包括模式识别及分类、故障智能诊断、图像处理、函数拟合、最优预测等方面的应用。2.

9、1 BP神经网络特点l)分布式的信息存储方式神经网络是以各个处理器本身的状态和它们之间的连接形式存储信息的,一个信息不是存储在一个地方,而是按内容分布在整个网络上。网络上某一处不是只存储一个外部信息,而是存储了多个信息的部分内容。整个网络对多个信息加工后才存储到网络各处,因此,它是一种分布式存储方式。2)大规模并行处理BP神经网络信息的存储与处理(计算)是合二为一的,即信息的存储体现在神经元互连的分布上,并以大规模并行分布方式处理为主,比串行离散符号处理的现代数字计算机优越。3)自学习和自适应性BP神经网络各层直接的连接权值具有一定的可调性,网络可以通过训练和学习来确定网络的权值,呈现出很强的

10、对环境的自适应和对外界事物的自学习能力。4)较强的鲁棒性和容错性BP神经网络分布式的信息存储方式,使其具有较强的容错性和联想记忆功能,这样如果某一部分的信息丢失或损坏,网络仍能恢复出原来完整的信息,系统仍能运行。1986年由Rumelhart和McCelland领导的科学家小组在Parallel Distributed Processing一书中,对具有非线性连续转移函数的多层前馈网络的误差反向传播算法进行了详尽分析,实现了Minsky关于多层网络的设想。人工神经网络具有广泛的应用领域;在所有的神经网络应用中,BP神经网络所占比例在80%以上。BP神经网络因其良好的非线性逼近能力和泛化能力以及

11、使用的易适性而更是受到众多行业的青睐。BP神经网络采用的反向传播算法(BP算法)是目前在前馈神经网络中研究得最为成熟且应用最广的一种有导师学习算法。BP神经网络在模式识别、图像处理、信息处理、智能控制、故障检测、企业管理、市场分析等方面的应用已取得了显著成效。可以说,BP神经网络的应用已深入到经济、化工、工控、军事等众多领域,并且从其应用的优势及趋势可以预言其应用前景将更加光明。在这样一个信息及经济高度发达的时期,研究BP神经网络,为其进一步的发展及应用做出一定的贡献是极具理论价值和实用价值。2.2 BP神经网络介绍BP网络是一种单向传播的多层前馈网络,它包含输人层、隐含层和输出层,如图2.1

12、所示,是目前应用较多的一种模型。该算法在层次型网络结构上采用误差逆传播学习方式,学习过程由正向传播和误差逆传播组成。图2.1 BP网络示意图BP网络的结构如图1所示,算法的主要思想是把学习过程分为两个阶段:第一阶段是正向传播过程,输入信息从输入层经隐层逐层计算各单元的实际输出值,每一层神经元的状态只对下一层神经元的状态产生影响;第二阶段是反向传播过程,若在输出层未能得到期望的输出值,则逐层递归计算实际输出与期望输出之间的差值,根据此误差修正前一层权值使误差信号趋向最小。它通过连续不断地在相对于误差函数斜率下降的方向上计算网络权值和偏差变化而逐渐逼近目标。每一次权值和误差的变化都与网络误差的影响

13、成正比。假设神经网络每层有N个节点,若某一层节点j与上层节点i之间权值为Wij,节点的输入总和计为netj 、输出计为Oj ,转移函数取非线性的Sigmoid型函数,对于节点j,其输入值为其前一层各单元加权和,输出值为.定义误差函数式中为输出期望值,为输出实际值。BP算法采用梯度法调整权值,每次调整的量、式中01,称为学习速率,它决定每一次训练中的权值变化大小。进一步简化计算有,其中:,j为输出层单元;,j为隐层单元。BP网络是一种多层前馈神经网络,它采用后向传播算法,亦称BP算法(首先样本从输入层经各中间层向输出层传播,输出层的各神经元获得网络的输人响应;然后按照减小目标输出与实际输出误差的

14、方向,从输出层开始经各中间层逐层修正各连接权值,以达到学习目的)。BP网络具有结构简单、可操作性强、能模拟任意的非线性输入/输出关系等优点,目前已被广泛应用于模式识别、智能控制、预测、图像识别等领域。但是,BP网络存在两个突出问题(收敛速度慢,易陷入局部极小点)使其应用受到了一定限制。综上,我们可以看出BP算法主要的优点是简单、易于实现。但是BP算法有两个致命的缺陷:首先最大的缺陷是BP算法很可能陷入局部极小值,因为通常的误差曲面都是凸凹不平的,会有多个极值点。BP算法的另一个缺陷是收敛速度慢,当采用梯度下降法时步长不容易确定,步长太长则达不到精度,甚至会发散;太小则迭代步骤增加,收敛速度慢。

15、鉴于此,目前对BP算法的改进主要集中在两个方面:1.是避免陷入局部极小值,一旦陷入要想办法逃出;2.是改进迭代算法,加快收敛速度,较常用的方法是共轭梯度法、变尺度法等。3 BP神经网络算法改进3.1 BP网络训练过程介绍BP 网络其实质仍然是多层前馈型人工神经网络,并且一般认为网络是严格分层的,即当且仅当两相邻层的节点才有可能互联。又根据万能逼近定理(Universal Approximation Theory) :如果隐层节点是可以根据需要自由设置的,那么用三层S 状的I/ O 特性的节点可以以任意精度逼近任何具有有限间断点的函数。一般地,在研究BP 网络时都假设网络具有输入层、隐层、输出层

16、共三层;其结构见图3.1。各神经元节点的激活函数一般可以是S 型函数和线性函数。图3.1 BP网络结构示意图BP 网络的整个训练过程是建立在输入/ 输出样本对基础上的;在训练开始前赋予权值较小的随机值。则整个训练过程大致可分为以下几步:1) 从样本集中选择有用样本对,将输入样本送给BP 网络的输入节点;2) 计算BP 网络对应该输入的输出值;3) 求出BP 网络实际输出和理想输出(输出样本) 之间的误差值;4) 根据采用的算法调整网络的权值以减小误差;5) 重复14 达到预设的训练要求(最大允许误差、最大训练次数等) 。从以上步骤可以看出:1) 、2) 步是从输入节点到输出节点的前向过程;3)

17、 、4) 步则是从输出节点到输入节点的误差反传过程这也正是BP 算法的由来。3.2 动态调节学习率的改进方法BP算法是基于误差-修正学习的,修正量的大小受到学习率的控制。对学习率的改进是BP算法改进的重要部分,因为学习率的大小对收敛速度和训练结果影响很大。较小的学习率可以保证训练能稳定的收敛,但学习速度慢,训练时间长;较大的学习率可以在某种程度上提高收敛速度,但可能导致振荡或发散。因此一个固定的学习率不可能很好地适用于网络的整个学习过程。为实现快速而有效的学习收敛过程,人们提出了许多动态调节学习率的方法(动态调节学习率,即在网络学习过程中,学习率随环境状态的变化不断调整)。以下是几类动态调节学

18、习率的方法。(1)学习率会随训练次数进行调节,但在每次训练中整个网络的学习率是相同的。具体有以下两种实现方法: 开始时以较大的学习率训练,然后根据训练情况调节学习率。学习率渐小法(即在网络训练开始阶段,实际输出与期望输出误差较大时,采用较大的学习率,并让其随着学习次数的增加而递减),该方法在许多改进的BP算法中得到应用,它使网络在训练开始阶段能够以较大幅度修改权值,误差快速减小,然后随着训练渐渐稳定逐步减小学习率,不仅加快了网络收敛速度,也较好地避免了振荡现象。开始时以较小的学习率训练,然后根据训练情况调节学习率。 以较小的学习率开始训练,如果连续的训练使误差减小,则指数地增大学习率;如果误差

19、增长非常大时,则快速减小学习率。以较小的学习率开始训练,如果连续训练时误差函数梯度方向很稳定,则增大学习率;如果每次训练时误差函数梯度方向的变化都很大,则快速减小学习率。但是这种调节学习率的方法虽然能在一定程度上改善网络训练速度,但常因学习率的调节幅度控制不当,导致网络训练产生振荡现象。(2)每个权值都对应一个学习率,学习率根据权值的变化而改变。Jacobs的delta-bar-delta方法(亦称为DBD算法)就是对每个权值分别计算其各时刻的学习率。它对网络性能有较大的改善,是一种很有效的方法。但是它仍然是一种梯度下降法,没有从根本上解决BP网络的问题,并且对参数的改变十分敏感,很容易引起收

20、敛变慢或振荡发散。每个权值都有一个不同的学习率,可以避免误差函数曲面较平坦区域的收敛速度太慢和陡峭区域的振荡现象。然而要为每个权值寻找一个合适的学习率通常会产生收敛速度和训练算法稳定性之间的矛盾。3.3 BP神经网络收敛速度的改进方法1) 激活函数的选取BP 网络神经元节点的激活函数选用对数S 型函数,即:式中, I 表示输入权值总和(包括阈值) , O表示神经元输出。式的一阶导数为:输出层权值调整输出层权值的调整可以直接通过实际输出和期望输出的误差来对相应的权值进行调整。现在考察第j 隐层中的p节点和第k 输出层(有时输出层不止一层) 的q 节点,可以用k 输出层的期望输出减去实际输出得到此

21、时的误差值, 根据传统动量BP 算法可以得到输出层的值:E 是q 的期望输出值。从而可以进一步得到p、q 的权值增量和新的连接权值:式中,是学习率、是动量因子、 是隐层p 节点和输出层q 节点第n 次迭代的连接权值、是( n + 1)次迭代的权值、 是输出层k 中q 神经元的值、是隐层j中p 神经元的输出值。另外, n = 0 时即第一次的调整假设= 0。现在改变权值调整规则,将其改写为如下形式:3) 隐层权值调整为了调整每层的权值,BP 网络将误差在网络各层之间反向传播。(6) 、(7) 两式适合于网络的所有各层。但是, 对于隐层,由于不知道期望输出值,所以不能直接计算出隐层的误差值,即是说

22、等式(3) 对于隐层是不存在的。这时可以借助于输出层的误差来调整隐层的权值。隐层神经元前向传播时,通过权值将输入值传到输出层; 同时对于反向, 当进行权值调整时,可以将输出层的值返回到隐层。所以,对于隐层的值可以采用下式得到:这种方法可以使BP 网络的收敛速率有很大提高,而且对网络的误识率也有较大改进,体现了改进BP 网络的有效性。3.4局部极小问题的几种改进方案BP网络的权值修正方法即误差函数梯度下降法, 从理论上看其训练是沿着误差曲面的切面向下逼近的。对一个复杂网络来说, 其误差曲面是一个高维空间中的曲面, 是非常复杂不规则的,其中分布着许多局部极小点。在网络的训练过程中, 很容易陷入这样

23、的局部极小点, 而且一旦陷人就难以逃脱。以下是几种改进方案:选取合适的初始权值BP算法采用的是梯度下降法, 训练是从某一起始点沿误差函数的斜面逐渐达到误差的最小值,一旦初始值确定, 就注定了网络收敛的方向。因此选择合适的初始权值就显得相当重要。所以一般设置了多个初始值, 然后从中选择训练效果最好的一个是一个很好的方法。在实际训练中可以采取了比较法选取, 训练时随机产生多个初始权值, 训练后选择一个最佳值作为初始权值。当然也可以在选取初始权值时, 使节点输入加权的绝对值小于1,但不能太小;还希望初始权值在输入累加时, 使每个神经元的状态值接近于零, 这样可以保证每个神经元在一开始就在它们激活函数

24、变化最大的地方进行。调整网络权值修改量和动量项增加动量项的连接权值调整公式为:式中, 为动量常数, 通常取0.9左右,为本次应得校正量,为前次校正量。增加动量项降低了网络对误差曲面局部调节的敏感性, 从而有效地抑制了网络陷于局部极小。但这不能完全避免网络陷入局部极小,一旦网络陷入其中则无法逃脱, 经过长时间的学习后, 网络的误差仍得不到有效下降, 造成网络收敛能力降低。为改善这种情况, 本文提出一种类似退火算法的修正方案, 该方法的思想是:在网络误差较长时间未下降时, 使网络的权值修改量加大,以一定的概率使网络重新处于高收敛系数和动量项的方式下学习, 过一段时间后又重新使收敛系数和动量项逐步减

25、少, 从而使网络跳出局部极小,达到收敛。在解决局部极值问题上, 上面曾经提到的模拟退火算法确有一定作用, 但是学习速度却非常慢。考虑到学习率既对权值有影响, 又在整个训练过程中是单一的变量, 可以将模拟退火思想用于调整, 大大减少了计算量, 加快了收敛速度, 而且改善了局部极小问题。这种算法只对一个变量使用模拟退火算法, 因而大大减少了计算量, 明显提高了收敛速度, 这对权值多的多层网络来说尤为明显。4 总结总结了针对BP网络的两个突出问题所做的各种网络参数改进方法。在收敛速度方面主要讨论了学习率改进方法对此的影响。大量研究和实验表明,与固定学习率相比,动态学习率调节方法提高了BP网络的收敛速

26、度和误差精度,改善了收敛性能,减小了网络陷人局部极小和产生振荡的可能性。不同的动态学习率调节方法有不同的特点,在实际应用中,应该针对具体情况来选择适合的动态学习率调节方法。在局部极小方面主要讨论了网络初始值的选取和连接权值的调整对此的改善。这些改进方法在一定程度上很好地避免了陷入局部极小点的问题。这给我以启示:在解决具体问题时,需要综合考虑各种因素的影响,合理改进网络参数或是与其他方法相结合,以使网络工作在最优的状态。5 参考文献1 Dean, Andrew R, Brian H Fiedler. Forecasting warm-season burn-off low clouds at t

27、he San Francisco international airport using linear regression and a neural networkJ. Appl Meteor, 2010, 41(6):629-639.2 Vogl T P, Mangis J K, Rigler J K, et al. Accelerating the Convergence of the Back Propagation Method .Biological Cybernetics,2009,59(3):257-263.3 Chan L W ,Fallside F.An Adaptive

28、Training Algorithm for Back Propagation Networks.Computers, Speech and Language,2009(2):205-218. 4Jacobs R A. Increased Rates of Convergence Through Leaming Rate Adaptation.Neural Networks, 2009,1 (4):295-307. 5HsinHC, LiCC, SunM,et al. An Adaptive Training Algorithm for Back-propagation Neural Netw

29、orkJ.IEEE Transactions on System, Man and Cybernetics, 2009,25(4):512-514.6Magoulas G D,Vrahatis M N,Androulakis G S.Effective Back-propagation with Variable Step Size.Neural Net-works,2010,10(1):69-82.7 Hsieh William W. Nonlinear canonical correlation analysis of the tropical Pacific climate variab

30、ility using neural network approach J. 2010, 14(12): 2528-2539.8张磊,胡春,钱锋.BP算法局部极小问题改进的研究进展.工业控制计算机,2004 , 17 (9 ) : 33-34 .50.9龚安,张敏.BP网络自适应学习率研究.科学技术与工程,2010. 6(1):64-66.10李剑萍,胡光锐,孙逊.一种改进的BP算法在导弹综合测试专家系统中的应用J.计算机应用与软件,2005,22(1):100-102.11 江学军, 唐焕文. 前馈神经网络泛化性能的系统分析J. 系统工程理论与实践, 2010, 28(8):36-40.12 彭汉川, 甘强,韦钰. 提高前馈神经网络推广能力的若干实际方法J. 电子学报,2009, 26(4):116-119.

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!