第66节神经网络学习

上传人:沈*** 文档编号:179436836 上传时间:2023-01-01 格式:PPT 页数:51 大小:1.08MB
收藏 版权申诉 举报 下载
第66节神经网络学习_第1页
第1页 / 共51页
第66节神经网络学习_第2页
第2页 / 共51页
第66节神经网络学习_第3页
第3页 / 共51页
资源描述:

《第66节神经网络学习》由会员分享,可在线阅读,更多相关《第66节神经网络学习(51页珍藏版)》请在装配图网上搜索。

1、王庆江王庆江计算机科学与技术系计算机科学与技术系22008-2009学年第1学期神经网络学习32008-2009学年第1学期神经网络学习n公元前公元前400年左右,柏拉图和亚里士多德就曾对年左右,柏拉图和亚里士多德就曾对人类认知、记忆、思维进行过研究;人类认知、记忆、思维进行过研究;n19世纪末,出现了世纪末,出现了神经元神经元学说;美国生物学家学说;美国生物学家W.James在在Physiology一书中提到,一书中提到,“人脑中人脑中两个基本单元靠得较近时,一个单元的兴奋会传两个基本单元靠得较近时,一个单元的兴奋会传到另一个单元;到另一个单元;n20世纪世纪40年代,神经解剖学、神经生理学

2、、神经年代,神经解剖学、神经生理学、神经元的电生理过程等有了突破性进展。元的电生理过程等有了突破性进展。42008-2009学年第1学期神经网络学习Nucleus:核核 Cell body:细胞体细胞体 Dentrite:树突树突 Axon:轴突轴突52008-2009学年第1学期神经网络学习轴突后部裂出轴突后部裂出许多许多分枝,分枝末端有突触,突触与树突连接;分枝,分枝末端有突触,突触与树突连接;轴突中的信号经突触转换为轴突中的信号经突触转换为“阻止阻止”或或“激活激活”信号;信号;当神经元的当神经元的“净输入净输入”超过阈值时,其沿轴突发出信号;超过阈值时,其沿轴突发出信号;改变突触的效能

3、,神经元之间的影响随之改变,学习就发生了。改变突触的效能,神经元之间的影响随之改变,学习就发生了。突触(神经键)突触(神经键)62008-2009学年第1学期神经网络学习摘自张仰森摘自张仰森人工智能原理与应用人工智能原理与应用随书课件随书课件72008-2009学年第1学期神经网络学习n1943年,年,W.S.McCulloch和和W.A.Pitts合作提出了第一个合作提出了第一个人工神经元模型(人工神经元模型(M-P模型);模型);NiiiSumfyWISum1)(Sumy0 T1f是阈值为是阈值为T的阶跃函数的阶跃函数I1I2INW1W2WNyM-P模型中输入、输出的关系模型中输入、输出的

4、关系摘自摘自http:/osp.mans.edu.eg/rehan/ann/2_3_1%20The%20McCulloch-Pitts%20Model%20of%20Neuron.htm82008-2009学年第1学期神经网络学习树突树突加和加和细胞体细胞体阈值阈值轴突轴突参考:参考:http:/www.doc.ic.ac.uk/nd/surprise_96/journal/vol4/cs11/report.html#What%20is%20a%20Neural%20Network突触突触92008-2009学年第1学期神经网络学习n1949年,年,Donala U.Hebb在在“The Or

5、ganization of Behavior”一书中认为一书中认为q学习的过程最终发生在神经元之间的学习的过程最终发生在神经元之间的突触突触部位,突触的部位,突触的连接强度随着突触前后神经元的活动而变化;连接强度随着突触前后神经元的活动而变化;q连接权的学习律连接权的学习律正比于正比于突触前后两个神经元的活动状态突触前后两个神经元的活动状态值的乘积;值的乘积;q可假设权是对称的,细胞的互连结构是通过改变彼此的可假设权是对称的,细胞的互连结构是通过改变彼此的连接权创造出来的。连接权创造出来的。突触连接强度的可变性是学习和记忆的基础突触连接强度的可变性是学习和记忆的基础102008-2009学年第

6、1学期神经网络学习n这是神经网络的第这是神经网络的第1个学习算法;个学习算法;n神经元的输出神经元的输出n连接权值的调整公式连接权值的调整公式)(1 niiijjxwfyijijijxytwtw )()1(学习率学习率净输入净输入112008-2009学年第1学期神经网络学习n1957年,年,Frank Rosenblatt在在M-P模型基础上,定义了模型基础上,定义了一个具有一个具有单层单层计算单元的神经网络结构,取名为计算单元的神经网络结构,取名为“感知感知器器”。输入层输入层计算层计算层(输出层输出层)x1x2xixny1yjymw1jwnj122008-2009学年第1学期神经网络学习

7、n设计一个神经网络模型,设计一个神经网络模型,q除了明确网络的结构、神经元的传输函数(除了明确网络的结构、神经元的传输函数(f););q还要给出还要给出学习算法学习算法。n学习算法用于得出神经网络中的各个参数。学习算法用于得出神经网络中的各个参数。q学习算法通常是学习算法通常是迭代迭代算法,对应神经网络的算法,对应神经网络的演变演变过程;过程;q算法收敛到一个稳定状态时,神经网络的各参数(连接算法收敛到一个稳定状态时,神经网络的各参数(连接权值、阈值等)就基本不变了;权值、阈值等)就基本不变了;q这个过程称为神经网络的学习或训练。这个过程称为神经网络的学习或训练。132008-2009学年第1

8、学期神经网络学习n训练模式(训练模式(training mode)q准备大量的有教师指导的(或无教师指导的)的训练样准备大量的有教师指导的(或无教师指导的)的训练样本(即实例),对本(即实例),对ANN进行训练,确定进行训练,确定ANN的内部参的内部参数(甚至结构)。数(甚至结构)。n使用模式(使用模式(using mode)q输入一个实际例子,让输入一个实际例子,让ANN分析并给出结果。分析并给出结果。142008-2009学年第1学期神经网络学习n假设每个样本含假设每个样本含 n 个属性,用向量个属性,用向量(x1,x2,xn)表示;若表示;若X 为样本变量,为样本变量,XRn;nwij

9、是是 xi 到神经元到神经元 j 的连接权值,的连接权值,Wj 是神经元是神经元 j 的输入连的输入连接的权值向量,即接的权值向量,即Wj=(w1j,w2j,wnj);n先随机设置先随机设置wij和和j,j 是神经元是神经元 j 的阈值;的阈值;n不同神经元的参数(包括连接权值和阈值)的学习是相互不同神经元的参数(包括连接权值和阈值)的学习是相互独立的,故只需给出一个神经元的学习算法。独立的,故只需给出一个神经元的学习算法。152008-2009学年第1学期神经网络学习n样本必须是样本必须是有教师指导有教师指导的,即预先知道其分类;的,即预先知道其分类;q输入输入(x1,x2,xn)时,神经元

10、时,神经元j的输出应为的输出应为 dj。n对于离散感知器,对于离散感知器,yj 按下式计算。按下式计算。n 则则wij 的调整规则是的调整规则是 wij(t+1)=wij(t)+(dj-yj)xi 0 1-0 1)(sgn)(XWXWXWXWfyTjTjTjTjj为调整步幅系数,为调整步幅系数,0162008-2009学年第1学期神经网络学习n“感知器感知器”对对线性可分线性可分问题具有分类能力问题具有分类能力q若样本空间为若样本空间为Rn,存在,存在n-1维的维的超平面超平面可将样本分为两可将样本分为两类,则称线性可分。类,则称线性可分。21212221121)(),(wxwwxxwxwfy

11、xxXT 存在至少一组存在至少一组wij和和j,使,使得对应两个子空间的神经得对应两个子空间的神经元输出分别为元输出分别为0和和1。172008-2009学年第1学期神经网络学习t样本样本X期望期望输出输出dW(t)实际输出实际输出y=W(t)TXW(t+1)=W(t)+(dy)X0(1,-1,-1)-1(0,0,0)0(-0.4,0.4,0.4)1(1,1,-1)1(-0.4,0.4,0.4)-0.4(0.16,0.96,-0.16)2(1,-1,-1)-1(0.16,0.96,-0.16)-0.64(0.016,1.104,-0.016)3(1,1,-1)1(0.016,1.104,-0.

12、016)1.136(0.038,1.050,-0.038)(0,1,0)验证:验证:(0,1,0)T(1,-1,-1)=-1 (0,1,0)T(1,1,-1)=1 182008-2009学年第1学期神经网络学习n“感知器感知器”无法解决无法解决线性不可分线性不可分问题;问题;n1969年,年,Minsky和和Papert指出了指出了“感知器感知器”的的这种局限性,例如,这种局限性,例如,“感知器感知器”无法实现无法实现“异或异或”逻辑。逻辑。逻辑逻辑“与与”逻辑逻辑“异或异或”x1x2yx1x2y000000010011100101111110192008-2009学年第1学期神经网络学习n设

13、输入向量设输入向量X=(x1,x2),神经元,神经元j的输出为:的输出为:n学习逻辑学习逻辑“与与”时,有时,有n至少存在一组至少存在一组w1j、w2j 和和满足上述方程组,即单结点感知满足上述方程组,即单结点感知器对器对2输入的逻辑输入的逻辑“与与”问题有分类能力。问题有分类能力。0-00-122112211xwxwxwxwyjjjjj 2000-110-010-100-0021211221212121 jjjjjjjjjjjjjjwwwwwwwwwwwwww202008-2009学年第1学期神经网络学习n学习逻辑学习逻辑“异或异或”时,有时,有n不存在任何一组不存在任何一组w1j、w2j

14、和和满足上述方程组,即单结点感满足上述方程组,即单结点感知器不能对知器不能对2输入的逻辑输入的逻辑“异或异或”问题求解。问题求解。0200-110-010-100-002121211221212121wwwwwwwwwwwwwwwwjjjjjjjjjjjjjjjj0 11x1x20 11x1x221212wxwwx 212008-2009学年第1学期神经网络学习n采用采用二层或多层感知器;二层或多层感知器;n只允许某一层的连接权值可调,因为无法知道网只允许某一层的连接权值可调,因为无法知道网络络隐层隐层的神经元的理想输出;的神经元的理想输出;q要允许各层的连接权值可调,需要用要允许各层的连接权

15、值可调,需要用1986年提出的误年提出的误差反向传播(即差反向传播(即BP)学习算法。)学习算法。n多层感知器可解决单层感知器无法解决的某些问多层感知器可解决单层感知器无法解决的某些问题,例如,用二层感知器就可解决异或问题。题,例如,用二层感知器就可解决异或问题。222008-2009学年第1学期神经网络学习n70年代,集成电路使计算机快速发展;年代,集成电路使计算机快速发展;n在在“感知器感知器”局限性的困扰下,机器学习的热点局限性的困扰下,机器学习的热点由连接主义(即神经网络)转向符号主义;由连接主义(即神经网络)转向符号主义;n70年代被认为是年代被认为是ANN的研究低潮期,但仍有的研究

16、低潮期,但仍有ANN的一些重要成果出现。的一些重要成果出现。q72年,芬兰年,芬兰T.Kohonen教授提出了无教师学习网络教授提出了无教师学习网络SOM(Self-Organizing feature Map);q76年,美国年,美国Grossberg教授提出了教授提出了ART(Adaptive Resonnance Theory)。)。自组织竞争网络模型自组织竞争网络模型232008-2009学年第1学期神经网络学习n生物神经网络中,有生物神经网络中,有侧抑制侧抑制现象;现象;q一个神经元兴奋,通过突触一个神经元兴奋,通过突触抑制抑制相邻神经元;相邻神经元;q它越兴奋,对周围神经元的抑制作

17、用越强。它越兴奋,对周围神经元的抑制作用越强。n抑制现象使神经元之间出现竞争;抑制现象使神经元之间出现竞争;q起初,各神经元都处于(起初,各神经元都处于(不同程度不同程度)兴奋状态,最后)兴奋状态,最后“胜者为王胜者为王”。n自组织特征映射(自组织特征映射(SOM)和自适应共振理论)和自适应共振理论(ART)都属于这类神经网络模型。)都属于这类神经网络模型。242008-2009学年第1学期神经网络学习输入层输入层竞争层竞争层(输出层输出层)x1x2xixny1yjymw1jwnj252008-2009学年第1学期神经网络学习nSOM可实现聚类分析可实现聚类分析q聚类聚类n在在没有没有教师指导

18、的情况下,自动寻找样本的属性关教师指导的情况下,自动寻找样本的属性关系,将相似的样本划归为一类。系,将相似的样本划归为一类。q分类分类n已知各样本的类别,在类别知识(即教师信号)的已知各样本的类别,在类别知识(即教师信号)的指导下指导下,形成分类规则,将各样本分到各自的类中。,形成分类规则,将各样本分到各自的类中。q共同点:寻找共同点:寻找样本样本-类类的映射函数。的映射函数。262008-2009学年第1学期神经网络学习n设设 X1 和和 X2 是表示两个样本的向量;是表示两个样本的向量;欧式距离法欧式距离法余弦法(向量夹角法)余弦法(向量夹角法)T-XXXX|X|Xd)(212121|X|

19、XXXT2121cos X1X2X1 X2 272008-2009学年第1学期神经网络学习对样本对样本 X 和各神经元的连接权值向量和各神经元的连接权值向量 Wj 规一化规一化寻找获胜的神经元寻找获胜的神经元|WWW|X|XXjjj )(max )1(2)(min 2 1TjjTj*Tj*Tj*j*j*jn.,jj*XWXWXWWXWX|WX|WX|WX|jX1XiXnw1jwijwnjyj282008-2009学年第1学期神经网络学习网络输出与权值调整网络输出与权值调整对对Wj*(t+1)进行进行归一化归一化如果如果足够小则退出;否则足够小则退出;否则衰减衰减,转转 j*jj*jyj01时时

20、j*jtWtWWXtWWtWtWjjj*jj*jj*)()1()()()()1(*292008-2009学年第1学期神经网络学习n1982年,美国物理学家年,美国物理学家John J.Hopfield提出了提出了一种一种全连接全连接神经网络模型(即神经网络模型(即Hopfield模型);模型);q这是一种这是一种离散型离散型反馈式反馈式神经网络(英缩写神经网络(英缩写DHNN););q引入了引入了“能量函数能量函数”概念,支持对神经网络运行稳定概念,支持对神经网络运行稳定性进行判定;性进行判定;q成功求解旅行商问题(成功求解旅行商问题(Traveling Salesman Problems)。

21、)。n1984年,他又提出了连续型年,他又提出了连续型Hopfield网络(英网络(英缩写缩写CHNN)。302008-2009学年第1学期神经网络学习一般有一般有wii=0,wij=wjiy1y2yjyn12jnw2jx1x2xjxnwj2312008-2009学年第1学期神经网络学习n神经元的神经元的输出输出也称神经元的也称神经元的状态状态;n所有神经元的状态构成反馈网络的状态所有神经元的状态构成反馈网络的状态 Y;Y=(y1,y2,yn)n网络输入就是网络状态的初始值网络输入就是网络状态的初始值 Y(0);Y(0)=(x1(0),x2(0),xn(0)n由初始状态,网络开始演化。由初始状

22、态,网络开始演化。yj(t+1)=f(netj)这里,这里,netj为神经元为神经元 j 的的净输入净输入,f()为神经为神经元的元的特性函数特性函数(也称作用、传递或转移函(也称作用、传递或转移函数)。数)。y1y2yjynnx1x2xjxn322008-2009学年第1学期神经网络学习 0 00 1)(uuufyueufy 11)(10fu 10 0 0)(uuuuKuuufykk10fu10fuuk阈值型阈值型S状状(如如sigmoid函数函数)分段线性分段线性(饱和线性饱和线性)332008-2009学年第1学期神经网络学习n对于对于DHNN,特性函数,特性函数 f 可以是阈值型可以是

23、阈值型q也可以是分段线性型也可以是分段线性型n净输入净输入netj 的计算的计算 1 110 0 0)()1(jjjjjjnetnetnetnetnetfty 0 00 1)()1(jjjjnetnetnetfty nijiijjywnet1 342008-2009学年第1学期神经网络学习n串行方式(也称异步方式)串行方式(也称异步方式)q每次调整,只有一个神经元按其每次调整,只有一个神经元按其净净输入输入调整输出(即状态),而其他调整输出(即状态),而其他神经元保持状态不变;神经元保持状态不变;q神经元状态的调整次序可按神经元状态的调整次序可按某种某种规规定次序进行,也可随机选定。定次序进行

24、,也可随机选定。n并行方式(也称同步方式)并行方式(也称同步方式)q每次调整,各神经元每次调整,各神经元都都按其净输入按其净输入调整各自的状态。调整各自的状态。y1y2yjynnx1x2xjxn352008-2009学年第1学期神经网络学习nDHNN可能可能收敛于收敛于某个稳定状态,也可某个稳定状态,也可能能产生振荡产生振荡构成构成极限环极限环;n在串行方式下,为使网络收敛,在串行方式下,为使网络收敛,W 应为应为对称阵对称阵;n在并行方式下,为使网络收敛,在并行方式下,为使网络收敛,W 应为应为非负定非负定对称阵;对称阵;n保证给定的样本是网络的保证给定的样本是网络的吸引子吸引子,且有,且有

25、一定的一定的吸引域吸引域。参考:朱大奇参考:朱大奇,史慧史慧.人工神经网络原理及应用人工神经网络原理及应用.第第3 3章章.科学出版社科学出版社,2006,2006年年3 3月第月第1 1版版.y1y2yjynnx1x2xjxn362008-2009学年第1学期神经网络学习n连续型连续型Hopfield神经网络模型神经网络模型q该模型可表示为下列的非线性微分方程组:该模型可表示为下列的非线性微分方程组:qui 是神经元是神经元i的膜电位,的膜电位,Ci 和和 Ri 分别是输入电容和电分别是输入电容和电阻,阻,Ii 是电路外的输入电流,是电路外的输入电流,wij 是神经元是神经元i 到神经元到神

26、经元j的连接强度,的连接强度,f(u)是是u的的非线性函数。非线性函数。Niiiijjijii,.,N,,iIRu)(ufwdtduC121这是一个这是一个N输入、输入、N输出的有输出的有N组运算放大器的电路,组运算放大器的电路,每个运放输出有到各运放输入的每个运放输出有到各运放输入的反馈反馈通路。通路。372008-2009学年第1学期神经网络学习VjVjujCjViRij=1/wijRjVj 可对应可对应0至至1之之间的任意实数间的任意实数382008-2009学年第1学期神经网络学习nHopfield网络是一种非线性的动力网络;网络是一种非线性的动力网络;n可通过反复的网络动态迭代来求解

27、问题,这是符可通过反复的网络动态迭代来求解问题,这是符号逻辑方法所不具有的特性;号逻辑方法所不具有的特性;n在求解某些问题时,其求解方法与人类的求解方在求解某些问题时,其求解方法与人类的求解方法很相似;法很相似;n所求得的解可能不是最佳解,但其求解速度快。所求得的解可能不是最佳解,但其求解速度快。392008-2009学年第1学期神经网络学习n1986年,年,MIT出版社(出版社(Cambridge)出版了)出版了J.L.Rumelhart和和D.E.McClelland主编的主编的“Parallel Distributed Processing:Exploration in the Micr

28、ostructures of Cognition”一书;一书;n其中,详细分析了其中,详细分析了多层前馈网络多层前馈网络中的中的误差反向传误差反向传播播(Error Back Propagation)算法,即)算法,即BP算法,算法,它很好地解决了感知器局限性问题。它很好地解决了感知器局限性问题。402008-2009学年第1学期神经网络学习n前馈型神经网络前馈型神经网络输入层输入层输出层输出层隐层隐层x1xixN1y1yiyNm412008-2009学年第1学期神经网络学习正向传播正向传播n从输入层到输出层,逐层计算结点状态;从输入层到输出层,逐层计算结点状态;q每一层结点的状态只影响下一层

29、结点的状态。每一层结点的状态只影响下一层结点的状态。n如输出层没有得到期望输出(即有误差),转入反向如输出层没有得到期望输出(即有误差),转入反向传播过程。传播过程。反向传播反向传播n将误差信号沿原路返回,通过修改各层的连接权值,将误差信号沿原路返回,通过修改各层的连接权值,使误差信号递减直到最小。使误差信号递减直到最小。422008-2009学年第1学期神经网络学习是是还有样本吗还有样本吗初始化初始化给定输入向量和期望输出给定输入向量和期望输出求隐层、输出层各结点输出求隐层、输出层各结点输出求输出与期望输出的误差求输出与期望输出的误差e求误差梯度求误差梯度权值学习权值学习计算隐层结点误差计算

30、隐层结点误差否否设置连接权和阈的初值设置连接权和阈的初值有有e足够小足够小结束结束无无432008-2009学年第1学期神经网络学习nxi:样本的第:样本的第 i 个属性个属性nyi:输出层输出层神经元神经元 i 的输出的输出ndi:输出层神经元:输出层神经元 i 的期望输出的期望输出nwijk:第:第i层神经元层神经元 j 到第到第 i+1层神经元层神经元 k 的连接权值的连接权值noij:第:第 i 层神经元层神经元 j 的输出的输出nij:第:第 i 层神经元层神经元 j 的阈值的阈值nnetij:第:第 i 层神经元层神经元 j 的净输入的净输入nNi:第:第 i 层神经元的数目层神经

31、元的数目442008-2009学年第1学期神经网络学习 1111iNk)kj(i)k(iijwonet)(11)(ijijnetijijenetfo 特征函数必须是有界连续可微的,如特征函数必须是有界连续可微的,如sigmoid函数函数452008-2009学年第1学期神经网络学习 jjj-yde2)(21ijkijkijkijkijkwtwtwwew)()1(输出层神经元输出层神经元 j 的状态误差的状态误差jjjyde 网络学习的目标函数网络学习的目标函数wijk 的调整量的调整量462008-2009学年第1学期神经网络学习 层为隐层层为输出层1)(1(1)1()(21)1()1()1(

32、)1(iwoo iyyydiNhkhihikikikkkkik 层为隐层层为输出层1)(1(1)1()(21)1()1()1()1(iowoo ioyyydwij Nhkhihikikiijkkkkijki 层为隐层层为输出层1)(1(1)1()(21)1()1()1()1(iwoo iyyydeiNhkhihikikikkkkikik 472008-2009学年第1学期神经网络学习n特性函数是连续可微的,通过学习可得到特性函数是连续可微的,通过学习可得到超曲面超曲面来划分样本空间;来划分样本空间;n对于对于n层网络结构,学习后可得到层网络结构,学习后可得到n-1个超曲面,个超曲面,组成组成复

33、合曲面复合曲面,从而实现,从而实现复杂的复杂的分类任务;分类任务;n缺点:缺点:q算法的收敛速度慢;算法的收敛速度慢;q依据依据梯度下降梯度下降理论修改参数,可能出现局部极理论修改参数,可能出现局部极小问题。小问题。482008-2009学年第1学期神经网络学习nBAM双向联想记忆神经网络双向联想记忆神经网络nCMAC小脑神经网络小脑神经网络nRBF径向基函数神经网络径向基函数神经网络nCPN对偶传播神经网络对偶传播神经网络n量子神经网络量子神经网络参考:朱大奇,史慧参考:朱大奇,史慧.人工神经网络原理及应用人工神经网络原理及应用.科学出版社,科学出版社,2006.32006.3492008-

34、2009学年第1学期神经网络学习n人工神经网络是一种并行计算模型;人工神经网络是一种并行计算模型;q不同于冯不同于冯诺依曼计算机;诺依曼计算机;q但神经网络计算机还没有出现,一般在冯氏计算机上进但神经网络计算机还没有出现,一般在冯氏计算机上进行串行模拟。行串行模拟。n人工神经网络中知识是分布存储的;人工神经网络中知识是分布存储的;q蕴含在连接权值、阈值、网络结构中;蕴含在连接权值、阈值、网络结构中;n神经网络学习不仅是参数学习,还包括结构学习。神经网络学习不仅是参数学习,还包括结构学习。q对人类而言,完全对人类而言,完全透明透明,无法理解;,无法理解;教材教材P252P252第第2 2行,行,

35、“不透明不透明”应为应为“透透明明”502008-2009学年第1学期神经网络学习n人工神经网络有较强的容错性和鲁棒性;人工神经网络有较强的容错性和鲁棒性;q对于样本少量错误不敏感。对于样本少量错误不敏感。n人工神经网络的学习能力有别于符号主义;人工神经网络的学习能力有别于符号主义;q在符号主义机器学习中,根据样本修改规则,怎么修改在符号主义机器学习中,根据样本修改规则,怎么修改由人事先确定;由人事先确定;q而神经网络的学习从而神经网络的学习从随机初始值随机初始值开始,在理论上学习结开始,在理论上学习结果不依赖初始值,且学习过程无人工干预。果不依赖初始值,且学习过程无人工干预。512008-2009学年第1学期神经网络学习n人工神经网络不适合高精度计算;人工神经网络不适合高精度计算;q神经网络的鲁棒性与精确计算本身就是矛盾的。神经网络的鲁棒性与精确计算本身就是矛盾的。n人工神经网络的学习还有待研究。人工神经网络的学习还有待研究。q目前的学习算法中,使用了过多的经验参数;目前的学习算法中,使用了过多的经验参数;q有些学习算法的收敛速度太慢。有些学习算法的收敛速度太慢。

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!