BP神经网络matlab实现的基本步骤

上传人:小** 文档编号:43695133 上传时间:2021-12-03 格式:DOC 页数:5 大小:57.50KB
收藏 版权申诉 举报 下载
BP神经网络matlab实现的基本步骤_第1页
第1页 / 共5页
BP神经网络matlab实现的基本步骤_第2页
第2页 / 共5页
BP神经网络matlab实现的基本步骤_第3页
第3页 / 共5页
资源描述:

《BP神经网络matlab实现的基本步骤》由会员分享,可在线阅读,更多相关《BP神经网络matlab实现的基本步骤(5页珍藏版)》请在装配图网上搜索。

1、1、数据归一化2、数据分类,主要包括打乱数据颠序,抽取止常训练用数据、变量数据、测试数据3、建立神经网络,包括设宜多少层网络(一般3层以内既可以,每层的节点数(貝体节点 数,尚无科学的模型和公式方法确定,可采用试凑法,但输出层的节点数应和需要输出的最 个数相等),设置隐含层的传输函数等。关于网络具体建立使用方法,在后儿节的例子中将 会说到。4、指定训练参数进行训练,这步非常匝要,在例子中,将详细进行说明5、完成训练后,就可以调用训练结果,输入测试数据,进行测试6、数据进行反归一化7、误差分析、结果预测或分类,作图等数据归一化问题归一化的意义:首先说一下,在丁程应用领域中,应用BP网络的好坏最关

2、键的仍然是输入特征选择和训练 样本集的准备,若样本集代表性差、矛盾样本多、数齊归一化存在问题,那么,使用多复杂 的综介算法、多精致的网络结构,建立起來的模型预测效果不会多好。若想取得实际冇价值 的应用效果,从最基础的数据整理工作做起吧,会少走弯路的。归一化是为了加快训练网络的收敛性,只体做法是:1把数变为(0, 1)之间的小数主要是为了数据处理方便提出来的,把数据映射到0-1范用之内处理,更加便捷快速,应 该归到数字信号处理范畸之内。2把有量纲表达式变为无量纲表达式归一化是一种简化计算的方式,即将有龟纲的表达式,经过变换,化为无童纲的表达式,成 为纯量比如,复数阻抗可以归一化书写:Z = R

3、+ jcoL = R(14-joL/R),复数部分变成了纯数量了, 没有最纲。另外,微波之中也就是电路分析、信号系统、电磁波传输等,有很多运算都可以 如此处理,既保证了运算的便捷,又能凸现出物理量的本质含义。神经网络归一化方法:由于采集的各数据单位不一致,因而须对数据进行-1,1归一化处理,归一化方法主要有如 下几种,供人家参考:1、线性函数转换,表达式如下:代码:y=(x-MinValue)/(MaxValue-MinValue)说明;x、y分別为转换前、后的值,Max Value、Min alue分别为样本的最大值和最小值。2、对数函数转换,表达式如下:代码:y=loglO(x)说明:以1

4、0为底的対数曲数转换。3、反余切函数转换,表达式如下:代码:y=atan(x)*2/PImatlab中归一化的实现:matlab中的归一化处理有五种方法,只会其中一种就可以了,我喜欢用第4种,因为习惯和 方便注总:第一组和第二组归一化函数&. Matlab7.0以上已遗弃,他们的用法相似,pre”是归一 化,post*是反归一化,tram*是使用同样的设豐归一化另外一组数据1 内部函数 premnmx、postnmmx、tramnmx,将数据归一化到(-1,1)prenmmx的语法格式是代码:_Pn, minp, maxp, Tn, mint, maxt =premnmx (P, T)其中PT

5、分别为原始输入和输出数据,mmp和maxp分别为P中的最小值和最人值。mint 利maxt分别为T的敲小值和最大值。我们在训练网络时,如果所用的是经过归一化的样本数据,那么以后使用网络时所用的新数 据也应该和样本数据接受相同的预处理,这就要用到tnrnmmx,换句话说使用同一个归一化 设置(setting)归一化另外一组数据。如下所示:代码:_Pn =tramnmx (P, minp, maxp)其中P和Pn分别为变换前、后的输入数据,maxp和nunp分别为prenminx两返冋的最大值 maxp和 最小値 mmp。2、prestd、poststd、tiastd 归化数据到(0,1)用法与1

6、差不多.详细可以help prestdo上述两种方法是可以相互转化的,比如,第一种归化后的数据为p,则(l+p)./2的结果就是 第二种了3、mapmimnaxO将数据归一化到(-1,1),是6.5中*nmmx系列的替换函数该函数同时可以执行归一化、反归一化和归一化其他数据的功能,几体看帮助和后面的实例代码:%归一化数据输入为p,输出为t Lnormlnput, ps. = mapminmax(p);normTarget, ts = mapminmax(t):%反归一化trainOutput 二 mapminmax( reverse* , normTrainOutput, ts); train

7、insect = mapminmax ( reverse* , trainSamples. T, ts); validateOutput = mapminmax(? reverse* , normValidateOutput, ts); validatelnsect = mapminmax(reverse,validateSamples. T, ts); testOutput = mapminmax(* reverse , normTestOutput, ts); testinsect = mapminmax( reverse , testSamples. T, ts);%例子:xl = 1

8、2 4; 1 1 1; 3 2 2; 0 0 0yl, PS = mapminmax (xl, 0, 1)% 归化到0,1,若不填,则默认为-1,1%还原: xl_again = mapminmax (* reverse* , yl, PS)4、mapstd()将数据归一化到(0,1),是6.5中std系列的替代函数同理,3和4两种方法是可以相互转化的,比如,第一种归化后的数据为p,则(l-p)./2的结 果就是第二种了。5、自己写归一化函数,这个网上很多,大家可以百度下输入训练数据的乱序排法,以及分类注意:dmdevecO函数在7.6版本还可以使用把数据觅新打乱顺序,进行输入,可以让数据更加

9、貝备典型性和更优良的泛化能力!把数据进行打乱,并分类为:训练输入数据、变量数据、测试数据的方法用百度搜了一下,发现有些方法,但居然很少看到使用matlab内部两数直接进行的,其实 matlab自带的内部函数dividevec,完全能胜任上述工作,推荐!但这个存在一个问题是,因为打乱了,最后分析结呆的时候,数据重新排列困难,因为丢失 了数据在数组中的位置参数。具体用法可以参见下面bp交通预测的例子。mathworksmiet的新册里面似乎没仃介绍dnidverc这个函数了,但增加了新的函数來完成 上述功能,并返回标号(手头没装新版本NernalNehvork Toolbox Aersion 6.

10、0 (R2008a) 看guide X概是这个意思(有新版本的,可以试一下,这个函数是不是这个意思):divideblock, divideind. dividemt 和 dividerand上述函数,用法和功能基本相同,只是打乱的方法不一样,分别是block方法抽取、按数组 标号自定义抽取、交错索引抽取和随机抽。卜面以dmdeblock为例,讲解其基本用法:代码:trainV, valV, testV, trainlnd, vallnd, testlnd二divideblock(alIV, trainRatio, valRatio, testRatio)训练数据,变量数据,测试数据,训练数据

11、矩阵的标号,,变星数据标号,测试数据 标号二divideblock(所有数据,训练数据百分比,变量数据百分比,测试数据百 分比)其实dividevec和后面四个分类函数的区别在于,dividevec 一般直接在Matlab代码中调用。而后而四个函数足通过设置网络的dixideFcn函数來实现,比如,net.dnideFcn=dn ideblock, 但不是说不可以在代码中像dividevec直接调用如何查看和保存结果训练好的权值、阈值的输出方法是:输入到隐层权值:代码:wl=net. iwl, 1隐层阈值:代码:thetal=net. b 隐层到输出层权值:代码:w2=net. lw2, 1;

12、输出层阈值: 代码: theta2=net. b2训练好的BP神经网络保存: 代码:%保存save file_name net_name%Matlab自动将网络保存为mat数据文件,卜次使用 时可以直接载入%载入load file_name每次结果不一样问题冈为每次初始化网络时都是随机的,而II训练终止时的误差也不完全相同,结果训练后的权植和阀也不完全相同(大致是一样的),所以每次训练后的结果也略有不同。找到比较好的结果后,用命令save filename netjiame保存网络,可使预测的结果不会变化, 在需要的调用时用命令load filename我入。关于如何找到比较好的结果,进行保存

13、,可以设置误差,在循环中保存,具体使用可以参看 bp交通预测优化后的例子P=ooo ;% 输入T=;%输出%创建一个新的前向神经网络netl =nerfi(mimnax(P), 10,11,tramgdm)%当前输入层权值和阈值inputWeights=net_l IWinpu(bias=net_l b%当前网络W权值和阈值layerWeights=net_l LWlayerbias=net_l.bP=P1:t=tr;pn,inmp,maxp,tn,inuit,maxt=preiminix(p,t);%原始 数据归一化net=newff(nuniiiax(pn),5,1 ,tansig/pwrelin,tramgdx1); %设置网络,建立相应的 BP 网络 net.tramParam show=2000; % 训练网络net.trauiParam.lr=0.01;

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!