人工神经网络在机械故障诊断中的应用

上传人:沈*** 文档编号:92878656 上传时间:2022-05-19 格式:DOC 页数:11 大小:88KB
收藏 版权申诉 举报 下载
人工神经网络在机械故障诊断中的应用_第1页
第1页 / 共11页
人工神经网络在机械故障诊断中的应用_第2页
第2页 / 共11页
人工神经网络在机械故障诊断中的应用_第3页
第3页 / 共11页
资源描述:

《人工神经网络在机械故障诊断中的应用》由会员分享,可在线阅读,更多相关《人工神经网络在机械故障诊断中的应用(11页珍藏版)》请在装配图网上搜索。

1、-人工神经网络在机械故障诊断中的应用摘要:针对传统的机械故障诊断方法的局限性,提出将人工神经网络应用于机械故障诊断中。由于BP算法存在收敛速度慢及易陷入局部极小等缺陷,利用实数编码改进遗传算法对神经网络的权值和阈值进展优化训练,并把训练好的神经网络用于机械振动信号预测及机械故障诊断中。通过对机械设备振动信号的预测,可以及早发现故障,及时消除故障隐患,为企业节省大量的维修时间和维修费用,提高企业的生产率。关键词:遗传算法; 神经网络; 机械故障诊断The Application of Artificial Neural Networksin the Mechanical Fault Diagno

2、sisAbstract: For the limitations of traditional methods in the mechanical fault diagnosis, it is proposed in this paper that the artificial neural network is used in the mechanical fault diagnosis. Because BP algorithm has the defects of slow convergence rate and easy trapping in local minimum, a re

3、al- coded improved genetic algorithms is proposed to train the weights and threshold of neural network, and the trained neural network is applied in the prediction for the mechanical vibration signals and the mechanical fault diagnosis. By the prediction for the mechanical fault diagnosis, it can de

4、tect the faults and eliminate hidden trouble earlier, and it can save a lot of maintenance time and maintenance costs for enterprises and improve productivity for enterprises.Key words: Gene tic Algorithms; Neural Network; Mechanical Fault Diagnosis0前言随着科学技术的开展, 现代化机械设备的工作强度不断增大,生产效率、自动化程度也越来越高,设备更加

5、复杂的同时,各局部的关联也愈加严密,*处微小故障可能会导致整台设备甚至与设备有关的环境遭受灾难性的毁坏。近年来,设备预防维修制度正逐步向设备预知维修制度过渡,与设备预防维修制度相比,预知维修制度以振动监测和故障诊断技术为根底,可以做到及早发现故障并消除故障隐患,防止故障的进一步开展,能预防和减少恶性事故的发生,保障人身和设备平安;可以节省设备维修时间,增加设备运行时间,节约维修资金,进而提高企业的生产率与经济效益。传统的诊断方法和诊断理论对单过程、单故障和渐发性故障的简单系统可以发挥较好的作用,但对于多过程、多故障和突发性故障以及复杂庞大、高度自动化的大型设备和系统就具有很大的局限性。将人工智

6、能的理论和方法应用于机械故障诊断,开展智能化的机械故障诊断技术,是机械故障诊断的一个新途径。其中,人工神经网络具有容错、联想、推测、记忆、自适应、自学习和处理复杂多模式的功能,在对非线性时间序列的预测中有一定通用性。振动是机械设备在运行过程中正常运行与异常运行所表现出来的一种信息,通过对机器主要部位的振动值如位移、速度、加速度、转速及相位值等进展测定,与标准值进展比较,就可宏观地评定机器的运行状况。然后对测得的振动量进展特征分析,确定故障的性质,最后进一步进展分析就可以确定故障的原因及部位1。利用人工神经网络对机械振动信号进展预测,将预测结果作为检验设备是否发生故障的依据,也是对设备进展机械故

7、障诊断的重要依据。目前,人工神经网络已逐步应用到机械故障诊断领域,并成为机械故障诊断领域的一个研究热点。1人工神经网络概述1.1人工神经网络的原理人工神经网络(Artificial Neural Network,简称ANN)是生物神经网络Biological Neural Networks,简称BNN的模型化,并不是简单的BNN模型,而是对构造及功能大大简化后保存其主要特性的抽象与模型。引用了原生物神经网络的思维和方式、方法,但为到达一定的目的功能有所改变。生物神经网络是人工神经网络导向性的知识,却非原则。人工神经网络是在模拟生物神经网络的根底上构建的一种信息处理系统2,具有强大的信息存贮能力

8、和计算能力,是一种非经典的数值算法。ANN在1943年由Mc Culloch和PittS提出,在29世纪80年代进入了一个开展高潮,至今已开发出Hopfield网络、误差反向传播BP网络、对向传播网络CPN、径向基函数网络RBF、Kohonen网络等30多种典型的模型,其中以BP网络模型应用最广3。由于其计算方法具有自组织、自适应、并行性、非线性和容错性等特征,ANN已经成为人工智能领域的前沿技术,在函数逼近、模式识别、信号处理等领域应用广泛。甚至,在医学、环境科学以及其他领域的重大作用也日益凸显。初步显示出其广阔的应用前景。故障诊断就是人工神经网络应用领域之一,它通过网络将输入信号矢量空间映

9、射到输出矢量空间,输出矢量经过处理得到故障原因和排除故障方法。它集机械学、计算机学以及统计学等多门学科于一体。目前, 在众多神经网络中,前馈型神经网络因其良好的逼近能力和成熟的训练方法得到泛的应用,它的学习算法是误差反向传播( Back Propagat ion ,BP)算法。两层前馈型神经网络的构造如图1 所示。设网络的输入层、隐含层和输出层的节点个数分别为,和。设输入向量为,则信息的向前传播过程为:1隐含层中第个神经元的输出:2输出层中第个神经元的输出:13定义误差函数:其中,分别是隐含层和输出层的激活函数。图1 两层BP网络的构造图一般情况下, 隐含层采用S 型激活函数, 而输出层采用线

10、性激活函数4。神经网络是模拟生物神经系统建立起来的自适应非线性动力学系统, 具有可学习性和并行计算能力, 能够实现分类、自组织、联想记忆和非线性优化等功能。由于时间序列预测可以理解为一种由历史记录计算未来趋势的数学映射问题, 因此具有映射逼近能力的神经网络在解决预测问题时得到了广泛应用。虽然反向传播算法应用广泛, 但在实际应用中BP算法存在收敛速度慢, 目标函数存在局部极小点的缺陷。因此出现了一些改进的方法, 主要有附加动量法、自适应学习速率、带有动量法和自适应的梯度下降法等。虽然这些改进方法对BP算法的性能有了一定的改善, 但它们的根本方法仍然是梯度下降法,不能从根本上摆脱陷入局部最小的问题

11、。为抑制基于梯度下降法对前向神经网络训练时存在的缺乏, 考虑到遗传算法的全局寻优特性, 将其对神经网络的权值和阈值进展优化, 就可以弥补BP 算法的缺陷。1.2人工神经网络模型BNN信息传递过程中,信号为脉冲,当脉冲到达突出前膜时,前膜释放化学物质,结果在突触后产生突触后电位,其大小与脉冲密度有关,即时间总合效应。同时,各通道都对电位产生影响,即空间总合效应。ANN等效模拟电压近似BNN脉冲密度,仅有空间累加无时间累加。图2 神经网络工作原理上图2是模拟生物神经元构造与功能的数学模型示意图,它是一个多输入、单输出的非线性模型,其输出输入的关系可用数学函数描述为: (1)式中:为神经元输出;为第

12、j到第i神经元的连接权值;为输入信号;为神经元的阈值;为输入信号数目;为传递函数3。1.3人工神经网络构成神经网络的根本模型如以下图3所示:图3 神经网络工作原理网络的拓扑构造决定了神经元的连接方式和信息的传递途径,人工神经网络构造主要有以下几种:1前向网络前向网络的特点是神经元分层排列,可以有多层;同一层神经元间无连接;方向具有单一性,由入到出。应用最为广泛。2回归网络回归网络有两种。一种是有反响的前向网络,特点是输出反响到输入,内部与前向网络特点一样;另一种是全反响网络,除了输出反响到输入外,同一层的元之间可以互相连接,比前向网络复杂,例如自组织竞争型和遗传型神经网络。3互联网络互联网络每

13、个元都可以与其它元相连,分为局部互联和全互联。如Hopfield网络。1.4人工神经网络学习及分类ANN研究中的核心问题是如何确定加权系数。总的来说,有两种规则,直接设计计算和学习得到。人工神经网络的类型较多,目前的不下几十种,较著名的有:RBF网络径向基函数网络、BP网络前向多层神经网络、Hopfield网络、MLP网络多层感知器网络、ART网络自适应共振网络、 LVQ网络学习向量量化网络以及与其他前沿技术相结合的网络,如小波神经网络、概率神经网络、模糊神经网络等4。以下对三种典型的神经网络作出简要介绍:(1) BP神经网络图4 BP神经网络在确定了BP神经网络的拓扑构造之后,就可以利用训练

14、样本集对其进展训练,训练过程由正向传播和反向传播组成。在正向传播过程中,输入信号从输入层经隐层逐层处理,传向输出层,每一层神经元的状态只影响下一层神经元的状态。如果输出层不能得到期望的输出,则网络转为反向传播并同时计算误差。将误差沿原来的通路返回,以调整网络的权值和阈值,使得误差满足要求,实现给定的输入到输出的映射关系。(2) RBF网络图5 RBF神经网络RBF网络由3层构造组成,即输入层、隐含层和输出层,其构造如以下图。输入层节点只传递输入信号到隐含层,隐含层节点通常采用高斯函数作为传递函数,而输出层节点一般是线形函数。RBF的根本思想:用RBF作为隐单元的基构成隐含层空间,这样就可将输入

15、矢量直接即不通过权连接映射到隐空间。当RBF的中心点确定以后,这种映射关系也就确定了。而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输出的线性加权和。此处的权即为网络可调参数。由此可见,从总体上看,网络由输入到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。这样网络的权就可由线性方程组直接解出或用RLS方法递推计算,从而大大加快学习速度并防止局部极小问题。3Hopfield网络图6Hopfield网络Hopfield网络是单层对称全反响网络(自联想记忆),根据激活函数(作用函数)选取的不同,可分为离散型(DHNN)和连续性(CHNN)两种。DHNN:作用函数为hadli

16、m,主要用于联想记忆。CHNN:作用函数为S型函数,主要用于优化计算。组合优化问题,就是在给定约束条件下,求出使目标函数极小或极大的变量组合问题。将Hopfield网络应用于求解组合优化问题,就是把目标函数转化为网络的能量函数,把问题的变量对应于网络的状态。这样当网络的能量函数收敛于极小值时,问题的最优解也随之求出。2 机械故障诊断技术所谓故障是设备丧失其规定的功能。故障不等于失效更不等于损坏, 失效与损坏是严重的故障。对于现代化设备来说, 故障是不可防止的, 如果能做到及早发现、防患于未然, 可为企业节省大量的维修费用。早期的维修方式主要采用以时间为根底的定期维修, 不该修的修了, 造成了很

17、多不必要的浪费, 该修的不能及时修, 从而导致事故。以时间为根底的定期维修必然要过渡到以状态为根底的状态监测维修制度。作为状态监测的支承技术-机械故障诊断技术必将被大家所承受、认同。设备故障诊断技术应保证设备在将有故障或已有故障时, 能及时诊断出来并进展相应的正确维修, 以减少维修时间, 提高维修质量, 节约维修费用。设备诊断技术的首要任务是通过测取设备的信息来识别设备的状态。在运转的机械设备中, 振动是最重要的信息来源, 在振动信号中包含了各种故障信息。研究说明: 振动的强弱及其包含的主要频率成份和故障类型、部位和原因等有着密切的联系。利用振动信号对设备状态进展判别, 从振动信号中提取有用的

18、特征信号, 再利用信号处理技术对振动信号进展判别。机器的转速很高, 许多起警告性的振动会出现在高频段, 因此, 只有用仪器才能检测出来。在机器运行良好的状况下, 具有一个典型的振级和频谱特征。当机器出现故障时, 机器的动态过程以及机器零件上的一些作用力也随着变化, 从而影响机器的振动能级和频谱的图形。通过对振动的测量和分析, 可以知道机器工作状态的变化以及是否需要维修5。3 人工神经网络在故障诊断技术中的应用利用遗传算法来优化神经网络的权值和阈值, 可以弥补BP神经网络的缺陷。对于机械故障诊断中测得的设备振动信号, 其属于非线性时间序列, 很难用固定的模型来进展描述, 可利用经遗传算法优化的人

19、工神经网络来进展预测。以*台机械设备采集的一组振动位移的采样数据6为例, 来证实遗传神经网络在机械故障诊断中的有效性和实用性。选取前100个数据作为训练样本,后100个数据作为测试样本。选用2 层BP 网络, 输入单元数为3, 隐含层数目为5, 输出层单元数为1, 待优化的权值和阈值总数为26个。输入层到隐含层的激活函数采用对数S型函数, 隐含层到输出层的激活函数采用线性函数。表1、图7、8同时给出了标准BP算法、改进BP算法和遗传神经网络算法对训练样本和测试样本的预测结果。从表1、图7、8中可以得出如下结论: 标准BP算法预测效果最差, 改进的BP算法预测效果有所改善,遗传神经网络预测的效果

20、最好, 最接近实际值。采用实数编码的遗传算法, 运行结果稳定, 收敛速度能快且能到达全局收敛。虽然改进的BP算法仿真结果也能根本接近真实值, 收敛速度也较快, 但每次运行结果并不稳定, 会出现陷入局部最小等问题。图7 三种不同方法对训练样本的预测结果图8 三种不同方法对测试样本的预测结果表1 几种不同方法的预测结果模型训练样本测试样本最大绝对误差均方差最大绝对误差均方差标准BP算法15.75164.778015.28103.8123改进的BP算法7.30022.13458.259322.5844遗传神经网络7.08232.07226.65092.3218由此可见, 遗传神经网络在机械振动信号预

21、测中是一种有效可行的方法。可根据已经测得的振动信号, 来预测机械设备未来的开展趋势, 从而确定设备是否发生故障; 再结合信号处理手段对预测的信号进一步分析就可以确定故障的性质和内容, 最终对故障进展定位, 进而解决。4 结论从以上分析可以看出, 利用遗传算法优化的神经网络抑制了遗传算法收敛至最优解速度较慢和神经网络易陷入局部解的缺陷, 收敛速度快、仿真结果稳定。作为一种机械故障诊断技术, 在工程实际中有一定的理论指导及应用价值。目前, 遗传神经网络作为一种机械故障诊断技术只是一种可行性理论, 要将其真正用于解决实际工程问题仍需做大量的工作。参考文献1 王江萍. 机械设备故障诊断技术及应用M.

22、*: 西北工业大学, 2001.2 陈安,罗亚田.人工神经网络方法在环境科学领域应用进展J.*环境科学,2003,25(9):1.3 董长虹.神经网络与应用,国防工业,2021:1.4 高隽. 人工神经网络原理及仿真实例M . : 机械工业, 2003.5 王桂荣. 机械故障诊断技术简介J. 电站设备自动化, 2006,12(4):24- 26.6 杨叔子, *雅. 时间序列分析的工程应用M. *: 华中理工大学, 1992.课程作业要求训练神经网络1)训练集:* = 2*pi*rand(1,300);Y = sin(*) + 0.2*randn(1,length(*)plot(*,Y,+)测

23、试集:*2 = 2*pi*rand(1,300);Y2 = sin(*2) + 0.2*randn(1,length(*2)plot(*2,Y2,o)2) 网络构造:输入:1; 隐含:7 tanh元; 输出 1 线性元训练算法: BP算法3) 要求:a) 比较一般BP算法trainbp,自适应变步长BP算法(trainbpa),给出每一次迭代后的性能指标;b) 测试以上模型的精度。c) 比较20个隐含元的神经网络建模精度,初始权值的影响,得出你的结论。课程作业解答网络构造:输入:1; 隐含:7 tanh元; 输出 1 线性元1、 一般BP算法trainbp1程序代码%训练集*=2*pi*ran

24、d(1,300);Y=sin(*)+0.2*randn(1,length(*);%建立网络n=7; %设置网络隐单元的神经元数目net=newff(minma*(*),n,1,tansig purelin,traingd);%绘制网络输出曲线并与原函数比较%网络训练net.trainParam.show=50; %显示迭代过程net.trainParam.lr=0.03; %学习率net.trainParam.epochs=5000; %训练次数net.trainParam.goal=0.03; %训练精度net,tr=train(net,*,Y);%网络测试Y2=sim(net,*); %仿

25、真训练好的网络%绘制网络输出曲线并与原函数曲线相比较figure;plot(*,Y,bh, *,Y2,ro)title(原函数曲线以及训练后网络的输出曲线 )2运行结果TRAINGD, Epoch 0/5000, MSE 3.0595/0.03, Gradient 6.0222/1e-010TRAINGD, Epoch 50/5000, MSE 0.150506/0.03, Gradient 0.199409/1e-010TRAINGD, Epoch 100/5000, MSE 0.113363/0.03, Gradient 0.127955/1e-010TRAINGD, Epoch 150/

26、5000, MSE 0.0940516/0.03, Gradient 0.100774/1e-010TRAINGD, Epoch 200/5000, MSE 0.0814017/0.03, Gradient 0.0834641/1e-010TRAINGD, Epoch 4800/5000, MSE 0.0369912/0.03, Gradient 0.0025104/1e-010TRAINGD, Epoch 4850/5000, MSE 0.0369821/0.03, Gradient 0.00240079/1e-010TRAINGD, Epoch 4900/5000, MSE 0.03697

27、38/0.03, Gradient 0.00229607/1e-010TRAINGD, Epoch 4950/5000, MSE 0.0369663/0.03, Gradient 0.00219609/1e-010TRAINGD, Epoch 5000/5000, MSE 0.0369594/0.03, Gradient 0.00210071/1e-010TRAINGD, Ma*imum epoch reached, performance goal was not met.2、 自适应变步长BP算法(traingda)1) 程序代码%训练集*=2*pi*rand(1,300);Y=sin(*

28、)+0.2*randn(1,length(*);%建立网络n=7; %设置网络隐单元的神经元数目net=newff(minma*(*),n,1,tansig purelin,traingda);%绘制网络输出曲线并与原函数比较%网络训练net.trainParam.show=50; %显示迭代过程net.trainParam.lr=0.03; %学习率net.trainParam.epochs=5000; %训练次数net.trainParam.goal=0.03; %训练精度net,tr=train(net,*,Y);%网络测试Y2=sim(net,*); %仿真训练好的网络%绘制网络输出曲

29、线并与原函数曲线相比较figure;plot(*,Y,bh, *,Y2,ro)title(原函数曲线以及训练后网络的输出曲线 )2) 输出结果TRAINGDA, Epoch 0/5000, MSE 1.58955/0.03, Gradient 5.10807/1e-006TRAINGDA, Epoch 50/5000, MSE 0.0543699/0.03, Gradient 0.0433919/1e-006TRAINGDA, Epoch 100/5000, MSE 0.0427909/0.03, Gradient 0.106035/1e-006TRAINGDA, Epoch 150/5000

30、, MSE 0.0407093/0.03, Gradient 0.111799/1e-006TRAINGDA, Epoch 200/5000, MSE 0.0454861/0.03, Gradient 0.361268/1e-006TRAINGDA, Epoch 4800/5000, MSE 0.0333791/0.03, Gradient 0.0416298/1e-006TRAINGDA, Epoch 4850/5000, MSE 0.0415463/0.03, Gradient 0.380283/1e-006TRAINGDA, Epoch 4900/5000, MSE 0.0333217/

31、0.03, Gradient 0.0467533/1e-006TRAINGDA, Epoch 4950/5000, MSE 0.0338066/0.03, Gradient 0.105669/1e-006TRAINGDA, Epoch 5000/5000, MSE 0.0368966/0.03, Gradient 0.255673/1e-006TRAINGDA, Ma*imum epoch reached, performance goal was not met.网络构造:输入:1; 隐含:20 tanh元; 输出 1 线性元1、 无初始权值的一般BP算法trainbp1) 程序代码%训练集

32、*=2*pi*rand(1,300);Y=sin(*)+0.2*randn(1,length(*);%建立网络n=20; %设置网络隐单元的神经元数目net=newff(minma*(*),n,1,tansig purelin,traingd);%绘制网络输出曲线并与原函数比较%网络训练net.trainParam.show=50; %显示迭代过程net.trainParam.lr=0.03; %学习率net.trainParam.epochs=4000; %训练次数net.trainParam.goal=0.03; %训练精度net,tr=train(net,*,Y);%网络测试Y2=sim

33、(net,*); %仿真训练好的网络%绘制网络输出曲线并与原函数曲线相比较figure;plot(*,Y,bh, *,Y2,ro)title(原函数曲线以及训练后网络的输出曲线 )2) 运行结果TRAINGD, Epoch 0/4000, MSE 5.52748/0.03, Gradient 12.3627/1e-010TRAINGD, Epoch 50/4000, MSE 0.161774/0.03, Gradient 0.269652/1e-010TRAINGD, Epoch 100/4000, MSE 0.10668/0.03, Gradient 0.137831/1e-010TRAIN

34、GD, Epoch 150/4000, MSE 0.0861789/0.03, Gradient 0.100213/1e-010TRAINGD, Epoch 200/4000, MSE 0.0740102/0.03, Gradient 0.0807711/1e-010TRAINGD, Epoch 3800/4000, MSE 0.0411811/0.03, Gradient 0.0038706/1e-010TRAINGD, Epoch 3850/4000, MSE 0.0411588/0.03, Gradient 0.00383927/1e-010TRAINGD, Epoch 3900/400

35、0, MSE 0.0411369/0.03, Gradient 0.00380848/1e-010TRAINGD, Epoch 3950/4000, MSE 0.0411153/0.03, Gradient 0.00377819/1e-010TRAINGD, Epoch 4000/4000, MSE 0.041094/0.03, Gradient 0.00374833/1e-010TRAINGD, Ma*imum epoch reached, performance goal was not met.2、含初始权值的一般BP算法1程序代码%训练集*=2*pi*rand(1,300);Y=sin

36、(*)+0.2*randn(1,length(*);%建立网络n=20; %设置网络隐单元的神经元数目net=newff(minma*(*),n,1,tansig purelin,traingd);%初始化权值W=net.iw1,1net.iw1,1=0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0;%绘制网络输出曲线并与原函数比较%网络训练net.trainParam.show=50; %显示迭代过程net.trainParam.lr=0.03; %学习率net.trainParam.epochs=4000; %训练次数net.trainParam.goal=0

37、.03; %训练精度net,tr=train(net,*,Y);%网络测试Y2=sim(net,*); %仿真训练好的网络%绘制网络输出曲线并与原函数曲线相比较figure;plot(*,Y,bh, *,Y2,ro)title(原函数曲线以及训练后网络的输出曲线 )3) 运行结果W = -8.9714 -8.9714 8.9714 -8.9714 -8.9714 8.9714 8.9714 -8.9714 8.9714 8.9714 -8.9714 -8.9714 -8.9714 -8.9714 8.9714 8.9714 8.9714 8.9714 -8.9714 -8.9714TRAING

38、D, Epoch 0/4000, MSE 8.77126/0.03, Gradient 26.4843/1e-010TRAINGD, Epoch 50/4000, MSE 0.4192/0.03, Gradient 0.217465/1e-010TRAINGD, Epoch 100/4000, MSE 0.342233/0.03, Gradient 0.226193/1e-010TRAINGD, Epoch 150/4000, MSE 0.279247/0.03, Gradient 0.173973/1e-010TRAINGD, Epoch 3850/4000, MSE 0.131224/0.

39、03, Gradient 0.0121074/1e-010TRAINGD, Epoch 3900/4000, MSE 0.131008/0.03, Gradient 0.0119216/1e-010TRAINGD, Epoch 3950/4000, MSE 0.130798/0.03, Gradient 0.0117409/1e-010TRAINGD, Epoch 4000/4000, MSE 0.130594/0.03, Gradient 0.0115651/1e-010TRAINGD, Ma*imum epoch reached, performance goal was not met.

40、结论1、 程序中的主要参数选取原则大的学习速率可能导致系统的不稳定;但小的学习速率导致较长的训练时间,可能收敛很慢,不过能保证网络的误差值不跳出误差外表的低谷而最终趋于误差最小值。所以一般情况下倾向于选取较小的学习速率以保证系统的稳定性。一定程度上讲,训练次数越多,输出结果与原函数越接近。期望误差当然希望越小越好,但是也要有适宜值。2、结果分析比较对于同为含7个隐含元,无初始权值的BP网络,一般BP算法训练5000次到达精度0.0369594,而自适应变步长BP算法精度0.0368966,自适应步长算法训练速度更快。对于同样的算法,采用7个隐含元和20个隐含元的训练结果相比,20个隐含元的神经网络精度到达0.0318238,隐含元越多精度高,而且收敛速度越快。同样采用一般BP算法,神经元数目同为20,无初始化权值的神经网络训练4000次精度到达0.041094,初始化权值的网络精度仅到达0.130594,可见无初始化权值的网络精度更高,且收敛更快。在程序训练过程中发现同样的参数设置,训练后的输出结果却不一样,可见神经网路训练具有随机性。. z.

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!