人工智能读书报告

上传人:dus****log 文档编号:125362239 上传时间:2022-07-26 格式:DOC 页数:16 大小:64.50KB
收藏 版权申诉 举报 下载
人工智能读书报告_第1页
第1页 / 共16页
人工智能读书报告_第2页
第2页 / 共16页
人工智能读书报告_第3页
第3页 / 共16页
资源描述:

《人工智能读书报告》由会员分享,可在线阅读,更多相关《人工智能读书报告(16页珍藏版)》请在装配图网上搜索。

1、(读书报告、研究报告)考核科目 :人工智能学生所在院(系):计算机学院学生所在学科 :计学 生 姓 名 : 学 号 : 学 生 类 别 :学考核结果算机术 科学与技术 阅卷人人工智能读书报告基于动态加权的a*搜索算法研究1. 启发式搜索启发式搜索就是在状态空间中对每一个搜索的位置进行评估,选择最好的位置,再从这个位置进行搜索直到目标。在启发式搜索中,对位置的估价是十分重要的。采用了不同的评估方法可以有不同的效果。最佳优先搜索的最广为人知的形式称为a*搜索.它把到达节点的耗散g(n)和从该节点到目标节点的消耗h(n)结合起来对节点进行评价:d(n)=g(n)+h(n),因为以g(n)给出了从起始

2、节点到节点n的路径耗散,而h(n)是从节点n到目标节点的最低耗散路径的估计耗散值,因此d(n)=经过节点n的最低耗散解的估计耗散.这样,如果我们想要找到最低耗散解,首先尝试找到g(n)+h(n)值最小的节点是合理的。由a*定义可以发现这个策略不只是合理的:倘若启发函数h(n)满足一定的条件,搜索既是完备的也是最优的。如果把a*搜索用于tree-search,它的最优性是能够直接分析的。在这种情况下,如果h(n)是一个可采纳启发式-也就是说,倘若h(n)从不会过高估计到达目标的耗散-a*算法是最优的。可采纳启发式天生是最优的,因为他们认为求解问题的耗散是低于实际耗散的。因为g(n)是到达节点n的

3、确切耗散,我们得到一个直接的结论:d(n)永远不会高估经过节点n的解的实际耗散。常用的启发算法有:蚁群算法,遗传算法、模拟退火算法等。greedy search on d outperforms search on h2. 动态加权启发式搜索算法应用启发式搜索中的加权技术, 其主要目的是调整搜索中深度优先与宽度优先的比值, 以提高搜索效率。通常有两种加权技术, 即常数加权与动态加权技术。由于在常数加权中, 同样的加权量毫无区别地施用在每一个节点上, 加权的作用取决于各单一节点。而在动态加权中, 则会动态地对不同层上的节点施以不同的加权量。故一般地, 采用动态加权技术的启发式搜索效率要比静态(

4、即常数) 加权好。定义一. 一个搜索算法是可采纳的, 如果该算法总能找到一条求解路径, 其耗散值至少为?ft*(s)。这里ft*(s)表示从初始节点s出发至目标节点的最佳路径的耗散值,(0,1) 。根据加权技术的基本思想, 启发式评价函数的动态加权应达到这样的效果: 在搜索树的浅层, 搜索应呈现深度优先搜索的特性; 而随着搜索树的层次越来越深, 应逐步呈现出宽度优先搜索的特性。据此, 我们可以定义动态加权的启发式评价函数为:ft(n)?t(gt(n),?(1?d(n)/n)?ht(n) 其中d(n) 表示节点n在搜索树中的深度, n 表示预期的目标节点在搜索树中的深度;定义二. 若算法ra?采

5、用上述的启发式评价函数ft, 且htht*,则称算法ra为算法ra?*。若模t满足t(?a,?b)?t(a,b),这里(0,1),属于最佳路径上的且在open表中属于最浅层的任意节点n,仍然有gt(n)=gt*(n) ,最后经过推导可以得到:ft(n)?t(gt(n),?(1?d(n)/n)?ht(n)=t(gt*(n),?(1?d(n)/n)?ht(n) t(gt*(n),?(1?d(n)/n)?ht*(n) t(gt*(n),?ht*(n) t(?gt*(n),?ht*(n) ?ft*(s)3. 动态加权不能克服指数爆炸问题martelli已经证明了,在最坏情况下,算法a*的时间复杂度为o

6、(2n) 这里m是图的节点数。使用动态加权技术的本质在于提高搜索效率,但是动态加权技术很难消除指数爆炸现象。定义三. 启发式评价函数ht被称为引导了一个?(n)的标准化误差,若对于b元树上的所有节点,存在两个固定的正数和和一个正交函数?(.),ht(n)?ht*(n)ht(n)?ht*(n)|?/b , >1和p|?/b ?<1 使得p|?(ht*(n)?(ht*(n)1定理二.若ht(n) 引出?(n)=n的标准化误差,则当0<?0 <1 <a11?d(n)时,启发式评价函数为aht(n)?(1?)?ht(n) 引出同样的?(n)?n 的n标准化误差。这里?(0

7、,1 ,?0得含义如同极限、概率定义中常见的,它与?不同。ht(n)?ht*(n)ht(n)?ht*(n)证明过程:令y(n)? ;y(n)? 因为*?(ht(n)?(ht(n)11?aht*(n)y(n)1?a?(y)=y,故有y(n)?y(n)? 根据定理成立条aa?(ht*(n)aa件可知,当a 1?时,p|y(n)|?(1?a)?a?p|y(n)|?(a?1)?a?令 ? =(+1)a 1,当0?0?1 ,?b,1?a?1 时,存在 ?>0,使得:1?ht(n)?ht*(n)?p|?p|y(n)|?(ht*(n)b,当a?1时,p|y(n)|?(1?a)?a?p|y(n)?(a?

8、1)|?a?b,令 ?(?1)a?1 ,ht(n)?ht*(n)?1|?当0?0?1存在 ?0 ,使得:p| ?a?1时,*?(ht(n)b1?故定理是成立的。定理二表明,至少存在一个区间,使得动态加权技术无法改变评价函数引出的?(n)?n 的标准差。pearl已经证明了使用动态加权的算法a在类似这样的区间内,动态算法仍呈现最坏情况下的指数爆炸问题,类似,算法ra?,若使用动态加权技术,也不能避免指数爆炸问题。4. 结论启发式搜索算法在人工智能领域应用广泛,文章提到的动态加权启发式搜索算法在某些方面要比a*算法出色,通过动态调整搜索中深度优先与宽度优先的比值, 更能提高搜索的效率。但由分析可见

9、,动态加权技术虽然在一定程度上提高了算法的搜索效率,但它也存在缺点,即不能从根本上解决指数爆炸问题。5. 参考文献haslum,p., and geffner,h. 2001. heuristic planning with time and resources. in proceedings of ecp-01.bonet,b., and geffner, h. 2001. planning as heuristic search. artificial intellegence 129(1-2):5-33.篇二:人工智能读书笔记 西安交通大学人工智能读书笔记神经网络初步探究西安交通大学 电

10、信学院 计算机15班 高君宇 2110505112本学期,我有幸跟随相明教授进行了为期十周的人工智能课程学习。我最真切的体会是:在当今的人工智能领域里,理论是浩如烟海的,发现是十分之多的,应用是颇有限制的,成熟是有待时间的。但是,这丝毫不会降低我对人工智能诸多领域的兴趣。为什么呢?因为我是一个计算机专业的学生,对计算机这个看似冷冰的机器有着独特的感情,我渴望与他沟通与他交互向他诉说。所以,机器学习、神经网络等一系列理论都让我兴致勃勃,而且这些理论在相关领域中已经有所应用。在这个读书笔记里,我想专门记录自己对神经网络的研究。人类在很多方面已成功地采用机器来完成繁重和重复的体力工作,但人们也一直没

11、有放弃让机器具有人类的思维能力的努力。自电子计算机的出现至今,使这种梦想有了某些实现的可能。特别是人工智能技术的出现,使得人们又向思维机器的研究方向迈进了一步。 现在,人工神经网络技术又为我们进一步研究怎样模拟人类智能以及了解人脑思维的奥秘开辟了一条新的途径。1那么,什么是神经网络呢?通过老师课上的讲述和自身的理解,我认为神经网络就是让计算机像生物体的神经系统一样,可以对外界传来的各种刺激(输入)产生一系列确定的反应(输出)。神经元在神经系统中具体怎么工作的我们不用纠结太多,而机器中实现神经网络模型需要用一系列数学方法对输入信号进行变换、分类、加权等。我们主要学习了早期的感知器模型,它第一次引

12、入了学习的概念,但简单感知器是通过非线性函数输出的,它只能解决线性可分问题,不能解决线性不可分问题(即无法用一个平面(直线)把超空间(二维平面)中的点正确划分),但多层感知器可以解决这个问题,因为它把多个感知器级联在了一起,相当于在一个平面上画多条直线,其层次可分为输入层、隐层和输出层,每一层都是上一层的输入加权后输出,但多层感知器模型不能学习。接着,我们重点学习了bp算法,它是一种最为著名的前馈网络学习算法,bp网络既解决了多层感知器不能学习的缺陷,又继承了感知器强大的分类能力。2它将初始的各层权值不断调整,用迭代的方法逐步逼近最优结果。bp神经网络是前馈神经网络中应用最广泛的网络之一。理论

13、上,当bp 神经网络隐层节点足够多时,可以逼近任意复杂系统的动力学行为。然而,由于神经网络规模巨大以及数据饱和等原因,使网络难以收敛到全局最小点,或收敛速度异常缓慢,为实际应用带来许多具体的难以克服的困难。人们提出了很多改进的学习算法,并极大地改善了收敛速度。2-4 但是,对于复杂的问题, bp 神经网络规模巨大以及收敛速度缓慢的问题到目前为止依然没有得到有效解决。 实质上,导致bp 神经网络收敛缓慢的原因不仅仅是由于bp 神经网络所采用的梯度学习算法,而且也与bp 神经网络全连接对称的网络结构有关。5全连接对称结构的bp 神经网络应用梯度下降法进行权值修正时,网络中的每个隐节点都各自为政,并

14、力图使自己在总体计算中发挥主要作用。每个隐节点都只看到其输入信号和输出端反传给它的误差信号,误差信号给出了每个隐节点需要完成的任务,但输入信号和输出信号一直在变化6,因此,隐节点要完成的任务也一直在变动,于是,各隐节点在很长一段时间内处于混沌状态,需要很长时间才能够稳定下来。7因此,要改善bp 神经网络的性能,需在网络结构上改变其全连接的形式,降低网络参数搜索空间。人工神经网络建立在大脑生理研究的基础上,是对生物神经网络若干基本特性的抽象和模拟。人脑在处理复杂事件时,会将事件分解成若干子事件,然后分配给大脑的相应处理机构,协调完成事件的处理工作,同时人脑对知识具有积累特性,在获得新知识的同时不

15、会破坏原来已学好的知识8。而全连接神经网络却不具备这些特性,它在学习新样本时,会破坏全部原来已经学好的旧样本。因此,近年来许多学者试图从仿生学和拟人脑的角度研究神经网络结构设计理论及应用。9虽然bp算法是神经网络最为重要且最基本的部分之一,但神经网络领域的知识远比书本上讲述的更深、更广。接下来,我主要研究了径向基函数网络。设计神经网络可以有多种方案,反向传播算法可以看做是递归技术的应用,因为其调整权系数的方法是递归的。这种技术在统计学中称为随机逼近。而径向基函数网络将神经网络的设计看作是一个高维空间中的曲线拟合(逼近)问题。按照这种观点,学习等价于在多维空间中寻找一个能够最佳拟合训练数据的曲面

16、,这里的最佳拟合准则是某种意义上的最佳拟合。径向基函数方法在某种程度上利用了传统的多维空间中严格插值的研究成果。6从我自己单纯的理解来看,径向基函数网络比反向传播算法更为高端。为什么呢?因为径向基函数网络的隐层单元不像反向传播算法的隐层单元那样只含有一个对权系数的调整,其隐层单元提供一个函数集,该函数集在输入模式扩展至隐层单元时为其构建了一个任意的基,实现了一种非线性计算,这个函数集中的函数就被称为径向基函数。那么,这种算法的要点就在于径向基函数的确定了。最基本形式的径向基函数的英文简写为rbf ,rbf 网络的构成包括三层,其中每一层都有着完全不同的作用。输入层由一些感知单元组成,它们将网络

17、与外界环境连接起来。第二层还是像bp模型一样,是隐层,它的作用是从输入空间到隐层空间之间进行非线性变换。在大多数情况下隐层空间有较高的维数。输出层是线性的,它为作用于输入层的信号提供响应。隐层空间的维数越高,逼近就越精确。rbf网络的基本思想是:用rbf作为隐单元的“基”构成隐层空间,这样就可以将输入矢量直接(即不需要通过权接)映射到隐空间。6当rbf的中心点确定以后,这种映射关系也就确定了。而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输出的线性加权和。此处的权即为网络可调参数。由此可见,从总体上看,网络由输入到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。这样网络

18、的权就可由线性方程直接解出,从而大大加快学习速度并避免局部极小问题。径向基神经网络的神经元结构如图1所示。径向基神经网络的激活函数采用径向基函数,通常定义为空间任一点到某一中心之间欧氏距离的单调函数。由图1所示的径向基神经元结构可以看出,径向基神经网络的激活函数是以输入向量和权值向量之间的距离dist作为自变量的。径向基神经网络的激活函数的一般表达式为9 r?dist?e?dist2 (1)图1 径向基神经元模型随着权值和输入向量之间距离的减少,网络输出是递增的,当输入向量和 权值向量一致时,神经元输出1。在图1中的b为阈值,用于调整神经元的灵敏度。利用径向基神经元和线性神经元可以建立广义回归

19、神经网络,该种神经网络适用于函数逼近方面的应用;径向基神经元和竞争神经元可以组建概率神经网络,此种神经网络适用于解决分类问题。由输入层、隐含层和输出层构成的一般径向基神经网络结构如图2所示。在rbf网络中,输入层仅仅起到传输信号的作用,与前面所讲述的神经网络相比较,输入层和隐含层之间可以看做连接权值为1的连接。输出层和隐含层所完成的任务是不同的,因而它们的学习策略也不相同。输出层是对线性权进行调整,采用的是线性优化策略。因而学习速度较快。而隐含层是对激活函数(格林函数或高斯函数,一般取高斯)的参数进行调整,采用的是非线性优化策略,因而学习速度较慢。7篇三:人工智能读书报告 知识及推理人工智能读

20、书报告知识及推理摘要:人工智能的目标是使机器能够成为具有和人类一样智能的系统,而知识和推理一直被认为是智能最集中的体现,在实际运行的系统中实现智能的知识推理是具有非常重要的意义。知识表示是人工智能领域中非常重要的问题之一,目前人们使用的各种知识表示方法都有知识表现力和推理演算能力上的优缺点,我们需要掌握好这些方法的强项并充分利用它,扬长避短,综合使用各种知识表示方法并进行推理,构造强大的智能专家系统、准确的模式识别以及机器学习才是可能的。关键词:知识表示、推理、专家系统、机器学习、模式识别正文:一、人工智能中的多种知识表达方法对于知识这个概念,我们应该有着正确的认识,feigenbaum认为知

21、识是经过削减、塑造、解释和转换的信息。简单地说,知识是经过加工的信息。bernstein说知识是特定领域的描述、关系和过程组成。hayes-roth认为知识是事实、信念和启发式规则。知识可从(范围,目的,有效性)加以三维描述。其中知识的范围是由具体到一般,知识的目的是由说明到指定,知识的有效性是由确定到不确定。例如“为了证明ab,只需证明ab是不可满足的”这种知识是一般性、指示性、确定性的。而像“桌子有四条腿”这种知识是具体的、说明性、不确定性。知识表示是研究用机器表示知识的可行性、有效性的一般方法,是一种数据结构与控制结构的统一体,既考虑知识的存储又考虑知识的使用。知识表示可看成是一组描述事

22、物的约定,以把人类知识表示成机器能处理的数据结构。然而人工智能所关注的知识是指一个智能程序高水平的运行需要有关的事实知识、规则知识、控制知识和元知识。事实:是有关问题环境的一些事物的知识,常以“.是.”的形式出现。如事物的分类、属性、事物间关系、科学事实、客观事实等,在知识库中属于低层的知识。如雪是白色的、鸟有翅膀、张三李四是好朋友。规则:是有关问题中与事物的行动、动作相联系的因果关系知识,是动态的,常以“如果.那么.”形式出现。特别是启发式规则是属于专家提供的专门经验知识,这种知识虽无严格解释但很有用处。控制:是有关问题的求解步骤,技巧性知识,告诉怎么做一件事。也包括当有多个动作同时被激活时

23、应选哪一个动作来执行的知识。元知识:是有关知识的知识,是知识库中的高层知识。包括怎样使用规则、解释规则、校验规则、解释程序结构等知识。在人工智能中,知识有着很多种不同的表示方法,比如我们经常是用的逻辑表示法对知识通过引入谓词、函数来加以形式描述,获得有关的逻辑公式,进而以机器内部代码表示以及产生式表示法。此外,我们还有语义网络表示法和框架表示法,逻辑表示法和产生式表示法常用于表示有关论域中各个不同状态间的关系,然而用于表示一个事物同其各个部分间的分类知识就不方便了。槽(slot)与填槽表示方法便于表示这种分类知识。语义网络和框架表示方法就属于其中的两种。语义网络是对知识的有向图表示方法。一个语

24、义网络是由一些以有向图表示的三元组(结点1,弧,结点2)连接而成。结点表示概念、事物、事件、情况等。弧是有方向的有标注的。方向体现主次,结点1为主,结点2为辅。弧上的标注表示结点1的属性或结点1和结点2之间的关系。语义网络表示下的推理方法不像逻辑表示法和产生式表示法的推理方法那样明了。语义网络表示法是依匹配和继承来进行推理的。而至于框架表示法,1975年minsky的论文“a framework for respresenting knowledge”中首次提出了框架理论。其基本观点是人脑已存储有大量典型情景,当人面临新的情景时,就从记忆中选择一个称为框架的基本知识结构,这个框架是以前记忆的一

25、个知识空框,而其具体内容依新的情景而改变,对这空框的细节加工修改和补充,形成对新情景的认识又记忆于人脑中。框架理论将框架视作的知识单位,将一组有关的框架连接起来便形成框架系统。系统中不同框架可以有共同结点,系统的行为由系统内框架的变化来表现的。推理过程是由框架间的协调来完成的。框架表示法是一种适应性强、概括性高、结构化良好、推理方式灵活又能把陈述性知识与过程性知识相结合的知识表示方法。框架是由若干结点和关系(统称为槽slot)构成的网络。是语义网络一般化形式化的一种结构,同语义网络没有本质区别。将语义网络中结点间弧上的标注也放入槽内就成了框架表示法。框架是表示某一类情景的结构化的一种数据结构。

26、框架由框架名和一些槽(slot)组成,每个槽有一些值,槽值可以是逻辑的、数字的,可以是程序、条件、默认值或是一个子框架。槽值含有如何使用框架信息、下一步可能发生的信息、预计未实现该如何做的信息等。框架的一般格式:framework:<framework name><slot 1><face 11>:value.<face 1n>:value<slot 2><face 21>:value.<face 2n>:value.例:framework: <大学教师>类属:<教师>专业:<学科

27、专业>职称:(助教,讲师,副教授,教授)外语:范围:(英,法,德,.)默认:英水平:(优、良、中、差)默认:良框架表示法没有固定的推理机理。但框架系统的推理和语义网络一样遵循匹配和继承的原则,而且框架中如if-needed、if-added等槽的槽值是附加过程,在推理过程中起重要作用。如确定一个人的年龄,已匹配的知识库中的框架为槽名年龄:nilif-needed:askif-added:check在推理的过程中便启动了if-needed和if-added两个槽的附加过程ask和check。 此外我们还可以采用基于粗糙集理论的知识表示方法、基于对象的xml的知识表示方法、基于模糊petri

28、网的知识表示方法。这些方法为我们进行知识归结和推理提供了很大便利,我们需要合理使用以上这些知识表示方法,并且及时关注最新的各种知识表示方法,在此基础上进行推理,来构造我们所需要的专家系统、机器学习以及模糊识别等结构功能。二、人工智能的本质推理几乎所有的人工智能领域都要用到推理,因此,推理技术是人工智能的基本技术之一,并且也是人工智能的本质。早期的人工智能研究人员直接模仿人类进行逐步的推理,就像是玩棋盘游戏或进行逻辑推理时人类的思考模式。到了1980和1990年代,利用概率和经济学上的概念,人工智能研究还发展了非常成功的方法处理不确定或不完整的资讯。对于困难的问题,有可能需要大量的运算资源,也就

29、是发生了“可能组合爆增”:当问题超过一定的规模时,电脑会需要天文数量级的存储器或是运算时间。寻找更有效的算法是优先的人工智能研究项目。人类解决问题的模式通常是用最快捷,直观的判断,而不是有意识的,一步一步的推导,早期人工智能研究通常使用逐步推导的方式。人工智能研究已经于这种“次表征性的”解决问题方法取得进展:实体化agent研究强调感知运动的重要性。神经网络研究试图以模拟人类和动物的大脑结构重现这种技能。人们在对各种事物进行分析、综合后作出决策时,通常是从已知的事实出发,通过运用已掌握的知识,找出其中蕴涵的事实,或归纳出新的事实,这一过程通常称为推理。严格的说,所谓推理就是按某种策略由已知判断

30、推出另一种判断的思维过程。推理所根据的判断叫做前提,有前提所推出的那个判断叫结论。推理是人们无时无刻都在使用的方法,不论是在科学研究,学习以至日常生活中都在运用着它。在人工智能系统中,推理是由程序实现的,称为推理机。推理从不同的角度可以有不同的分类。从新判断推出的途径划分为演绎推理、归纳推理、默认推理;按推理是所用知识的确定性划分为确定性推理和不确定性推理;按推理过程中推出的结论是否单调的增加划分为单调推理与非单调推理;按推理中是否运用与问题有关的启发性知识可划分为启发是推理和非启发式推理;从方法论的角度划分为基于知识的推理、统计推理和直觉推理。例如:当你走路时,不小心摔了一跤,在摔下去而未倒

31、到地面时,你就会意识到你将会摔破衣服,这就是使用了直觉推理;所有人都要吃饭+张三是人>张三要吃饭,使用了演绎推理;该细菌的染色斑是革兰氏阳性+该细菌的形状为球状+该细菌的生长结构成链形>存在证据表明该细菌是链球菌类,不确定性推理等等。推理的控制策略主要包括推理方向、搜索策略、冲突消解策略、求解策略及限制策略等。正向推理是以已知事实作为出发点的一种推理,又称为数据驱动推理、向前链推理、模式制导推理及前件推理等。逆向推理是以某个假设目标作为出发点的一种推理,又称为目标驱动推理、逆向链推理、目标制导推理及后件推理等。求解策略是指推理只求一个解,还是求所有解及最优解等等。限制策略是为了防止

32、无穷的推理过程,以及由于推理过程太长增加时间及空间的复杂性,可在控制策略中指定推理的限制条件,以及对推理的深度、宽度、时间、空间等进行限制。常用的冲突消解策略有按针对性排序、按已知事实的新鲜性排序、按匹配度排序、根据领域问题的特点排序、按上下文限制排序、按冗余限制排序、按条件个数排序等等。另外还有归纳法推理系统、不确定性推理,归纳法推理是人工智能领域的一个重要研究方向。通过归纳法推理可以证明一些复杂程序的正确性以及一些关键算法的重要属性。国外已经把这一研究成果应用到国防、航空、航天领域。自80年代以来,国内外科技人员已研制出一些程序证明系统,其中最具代表性的是boyer-moore的归纳证明方

33、法,他们打破了传统方法,代一阶谓词逻辑以递归函数,使问题的描述简单自然、直观易懂。不精确推理标准的逻辑推理是假定事实要么为真,要么为假,并不考虑可能为真的情况。但在现实生活中,人们经常使用一些不精确的或不完善的知识与资料来进行工作,尤其是专家系统模拟人类专家工作的,所以在专家系统中,不精确推理的使用,几乎是难以避免的。它既反映了断言及客观世界中因果关系的不确定性,也体现了在此情况下推理方法的运用。 下述问题对不确定推理来说是基本的问题:(1)如何正确地、定性地刻画一个命题的不确定性?(2)如何适当地度量一个命题的不确定性? 命题的不确定性可以形式地定义如下:定义1.命题h是不能由k确定的,如果

34、h在以k中的公式作公理的逻辑系统中是不可判定的(即h和h都不是该系统的定理)。定义2.命题h是不能由k确定的,如果我们无法确定k的哪个模型是我们所需要的。 定义1和2说明,命题的不确定性是推理系统的特征,所以,我们可用传统的二值逻辑来描述不确定推理。定义3.如果命题集合e中的命题都被认为为真,则称e是k中对h的证据集合。如果ke3h或ke3h,则称e是k中对h的完备证据集合,否则,e是不完备的。在ai研究中,概率论在不确定推理中有广泛的应用,人们提出了各种基于概率的不确定性测度.这些基于概率的测度方法是可以用支持度来表示的,概率是能够由支持度来表示的各种基于概率的不确定性测度方法就自然地可以由

35、提出的支持度来表示了。在人工智能领域中,为了正确地推理出我们所需要的结果,就需要采取准确必要的控制策略来限定推理方向、搜索策略、冲突消解策略、求解策略及限制策略等,科学合理的进行推理过程,这样才能应用与专家系统、机器学习以及模式识别等。三、将知识运用到推理过程中的具体应用机器学习、模式识别、专家系统(1)机器学习机器学习(machine learning, ml)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能

36、的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎。学习能力是智能行为的一个非常重要的特征,但至今对学习的机理尚不清楚。人们曾对机器学习给出各种定义。认为,学习是系统所作的适应性变化,使得系统在下一次完成同样或类似的任务时更为有效。认为,学习是构造或修改对于所经历事物的表示。从事专家系统研制的人们则认为学习是知识的获取。这些观点各有侧重,第一种观点强调学习的外部行为效果,第二种则强调学习的内部过程,而第三种主要是从知识工程的实用性角度出发的。机器学习在人工智能的研究中具有十分重要的地位。一个不具有学习能力的智能系统难以称得上是一个真正的智能系统,但是以往的智能系统都普遍缺

37、少学习的能力。例如,它们篇四:人工智能阅读报告人工智能阅读报告之姓名:学号:班级:指导教师:历史、现状与未来2014/4/6我并不是通过看书而是通过一部由斯皮尔伯格执导的科幻电影ai接触到人工智能这个概念的。虽然这只是一部2001年的电影,距今已有13年之久,但是它对我的启迪是长久的。电影剧情在此不做探究,只是它展示给我们的未来让我对人工智能非常好奇,所以我通过图书馆和网络搜集阅读了一些材料,争取对人工智能的历史和现状有较深入的理解,并对其未来进行合理展望。电影名叫a.i,即artificial intelligence的首字母缩写,而这也正是学术上的人工智能的英文名。人工智能的一个比较流行的

38、定义,也是该领域较早的定义,是由当时麻省理工学院的麦卡锡在1956年的达特茅斯会议上提出的:“人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样”。这次会议可以看作人工智能的发端。自此以后,新思想、新理论、新技术不断涌现,至今尚无统一定义。经过这些年的发展,人工智能有了很多成果,前途一片光明。下面是详细介绍。首先是人工智能的历史。1956年夏季,以麦卡锡、明斯基、罗彻斯特和香农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。关于人工智能之父的说法,有人认为是冯诺

39、依曼,有人认为是图灵,这都有一定的道理。图灵提出过著名的图灵测试,这是评价机器智能行为最好且唯一的方法。另外,他还写过这方面的论文,如机器会思考吗?。然而比较公认的人工智能之父还是约翰麦卡锡,不幸的是,他于最近去世了。麦卡锡是lisp语言的发明者,曾因人工智能方面的巨大贡献获得过图灵奖。人工智能在于1956年正式提出后,取得了显著进步。20世纪50至70年代之间,人工智能有几个标志性的事件。1956年,塞缪尔发明了跳棋程序,于1962年击败了美国的一个州的跳棋冠军。1968年,斯坦福大学的费根鲍姆等人研制了dendral,被认为是专家系统的萌芽。1976年,“四色定理”得到证明。到了80年代,

40、神经网络快速发展。另外,人工智能被引入了市场,并显示出了使用价值。如智能机器人,机器翻译及斯坦福大学的sri地质勘探专家系统等。到了90年代,可以说进入了相对稳定阶段。这个期间最著名的事件莫过于蓝色巨人ibm的超级计算机“深蓝”击败国际象棋世界冠军卡斯帕罗夫了。这是人工智能的一个标志性事件,可以说是人工智能领域最广为人知的事件了。这一事件显示了人工智能的强大能力,使人们对人工智能的未来充满了期望。进入21世纪,对人工智能的研究又深入了一部。比如谷歌等公司推出的机器翻译,微软退出的语音助手cortana,都是当今人工智能的最新成果。今年微软build大会就进行了实时翻译,表名语音识别工作有了很大

41、进展。最近很出名的便是ibm公司的超级计算机“沃森”了。2011年2月17日,沃森在美国智力竞猜节目危险边缘中击败人类。与之前的深蓝不同的是,沃森可以理解人类语言,然后进行推理。以上是人工智能的基本发展历程,下面主要介绍当前人工智能的发展情况。人工智能主要应用于人工神经网络、自然语言理解、智能机器人、图像识别和专家系统等方面。当前这些主要研究领域都取得了长足进步。人工神经网络是我重点关注的的一个方面。从它出现以来,就给人们带来很多惊喜。根据一个简化的统计,人脑由百亿条神经组成,每条神经平均连结到其它几千条神经。通过这种连结方式,神经可以收发不同数量的能量。神经的一个非常重要的功能是它们对能量的

42、接受并不是立即做出响应,而是将它们累加起来,当这个累加的总和达到某个临界阈值时,它们将它们自己的那部分能量发送给其它的神经。大脑通过调节这些连结的数目和强度进行学习。尽管这是个生物行为的简化描述,但同样可以充分有力地被看作是神经网络的模型。阈值逻辑单元(threshold logic unit,tlu)是理解神经网络的第一步。tlu 是一个对象,它可以输入一组加权系数的量,对它们进行求和,如果这个和达到或者超过了某个阈值,输出一个量。如下图所示:比如一个求解语言种类的感知器学习模型如下:有一种培训规则叫做delta规则。感知器培训规则是基于这样一种思路:权系数的调整是由目标和输出的差分方程表达

43、式决定。而delta规则是基于梯度降落这样一种思路。反向传播算法同样来源于梯度降落原理,在权系数调整分析中的唯一不同是涉及t(p,n) 与 y(p,n) 的差分。如下图所示:自然语言理解方面,目前很多公司都在做。比较出名的事件是ibm的超级计算机“沃森”。2011年2月14日至16日的3天比赛中,沃森凭借超强的运算速度和强大的人工智能算法战胜了美国最受欢迎的智力竞猜电视节目危险边缘历史上两位最为成功的选手肯詹宁斯和布拉德鲁特,这是机器挑战人类智能的又一成功例子。对计算机沃森来说参与智力竞赛节目最重要的难题是解析人类的语言,尤其是在充满暗示和恶作剧的游戏里,沃森需要识别人类语言中微妙的含义,分辨

44、讽刺口吻、谜语、构词断句、诗篇线索等等这些逻辑和线索。然后才是对题目进行分解,快速搜索自己的内存资料,寻找到最佳答案。沃森能学习人类思维分辨人类语言口气,可选择忽略不擅长的题目,它可以可估算节目剩余奖金和自我信心,主动选择是否继续回答问题,已经取得了很大的进步。然而即使这样,它也没能突破图灵测试。它只能处理文字符号,并不能真正理解它们的含义。所以它很难理解人类交流中的微妙含义,甚至出现了爆粗口的尴尬局面。图像识别是人工智能的重要领域,也是目前研究比较集中的领域之一。图像识别是利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对象的技术。扫描条形码、二维码只是简单的应用,现在已经有

45、些厂商推出直接扫描图片获取信息的技术了。亚马逊的flow早在一年前就已经可以通过图片识别搜索商品,ebay也在尝试在自己的应用中加入图像识别的功能。目前,pounce已经与staples、target、ace等零售商合作,支持顾客利用手机扫描印刷广告上的商品图片,然后即时跳转到电商移动网站下单。这样移动平台就可以与电子商务无缝对接了,从而显现出了巨大的商机。除了上面介绍的几个研究方面,专家系统也在不断发展。专家系统是依靠人类专家已有的知识建立起来的知识系统,是一种具有特定领域内大量知识与经验的程序系统。它应用人工智能技术、模拟人类专家求解问题的思维过程求解领域内的各种问题,其水平可以达到甚至超

46、过人类专家的水平。专家系统可分为解释型、预测型、诊断型、设计型、监视型和控制型等类型,各自应用于不同的领域。比如控制型专家系统的代表为yes/mvs(帮助监控和控制mvs操作系统的专家系统),监视型专家系统代表为森林火警监视、reactor(帮助操作人员检测和处理核反应堆事故的专家系统)。当然人工智能作为一个跨越多平台、多学科的新兴技术,研究领域不止以上介绍的这些,并且新的技术和概念仍在不断发展。那么,人工智能究竟能发展到什么程度呢?人工智能的终极目标是用机器代替人的脑力劳动,可以说到时候机器要比人类聪明多了。那么这一目标能否达到?若真正实现了,又有什么因素会使人担忧呢?下面我就人工智能的未来

47、做一下展望。我对人工智能的未来充满信心。在it发展的不同阶段,都引起了或大或小的革命。人工智能是一个新事物,前途不可限量。想当初比尔盖茨靠着pc的蓬勃发展而起家,现在的人工智能所带给我们的机遇不亚于此。随着人工智能的发展,很多新产品会进入市场。如果抓住这一机遇,将智能机器放到每个家庭,那必定会造就一个商业帝国。另一方面,美国的很多科幻电影都有对人工智能未来的探讨,而且基本上都充满担忧。不止a.i,终结者和黑客帝国等电影也对人工智能的未来进行了探讨。a.i中人类终于在2000多年后消失,被机器代替;终结者中的机器更是残忍地杀害人类,与人类展开抗争;黑客帝国中的只能机器则完全统治了原本属于人类的世

48、界。从电影回归现实,人类对人工智能的看法如何呢?目前的人工智能还没有进入大规模实际应用阶段,很多技术还不成熟,所以人工智能目前看起来还没有那么“智能”,因而人们对它还没有多少忧虑。若干年以后,人工智能高度发达,取代了人的工作,集自然语言理解、模式识别、图像识别、高精度计算等能力于一身,就出现了所谓的“新人类”真正意义上的智能机器人。它们具备了思想和意识,它们具备了创新能力,最令人不安的是,它们不想一直受人类驱使,它们要反抗。总结来说,人工智能的发展有着广阔的前景。我很关心的是人工神经网络,因为未来智能机器的发展向人看齐,要模仿人脑的工作机理。人工神经网络相当于智能机器的大脑,把它发展完善,再配

49、合自然语言理解、模式设别和专家系统等技术,才能开发出真正意义上的智能机器。这样一来,人类千百年来的脑力劳动能够得以解放,科技高速发展,新的革命就会到来。另一方面,技术的发展大多会伴随着滥用。如同当今原子弹令地球处在达摩克利斯之剑下面一样,被寄予厚望的二十一世纪三大尖端技术之一的人工智能可能有过之而不及。人工智能有着广阔的前景,是未来人类生产发展的主要推动力之一,同时隐忧也如影随形。话说回来,当前的人工智能虽然已经经过了半个多世纪的发展,但是还有漫长崎岖的道路要走。人类对科技的追求是狂热的,但是一定要进行必要的约束,这样才能使人类在享受高科技带来的福利的同时远离它们带来的危害。篇五:人工智能读书

50、及实验报告人工智能导论-读书及实验报告计算机 xx 清哥荡漾 x1205xxxxx目录:一、 读书报告2.二、 实验一15.1.2.3.4.三、 实验二.20.1.2.3.4.四、一、 读书报告人工智能与神经网络读书报告摘要:人工智能与神经网络技术在近二十年中飞速发展,取得了大量成果,本文介绍了神经网络的发展现状,并对神经网络的的未来发展进行了展望。 关键词:人工智能 神经网络keywords: artificial intelligence neural network一、引言二、神经网络技术发展史1神经网络最早的研究是1943年心理学家mcculloch和数学家pitts合作提出的,他们提

51、出的mp模型拉开了神经网络研究的序幕。神经网络的发展大致经历了三个发展阶段:1946-1969为初期,在此期间的主要工作包括hebb(1949)the organization of behavior一书中提出的hebb学习规则,他的基本思想是:大脑在器官接受不同的任务刺激时,大脑的突触在不断的进行变化,这些不停的变化导致了大脑的自组织形成细胞集合,循环的神经冲动会自我强化。hebb在文中给出了突出调节模型,描述了分布记忆,即后来的关联论(connectionist);这个阶段另一个重要的工作为rosenblatt基于mp模型,增加了学习机制,推广了mp模型研制了感知机。rosenblatt感

52、知机器的工作激发了许多的学者对神经网络研究的极大兴趣,美国上百家有影响的实验室纷纷投入到这个领域。1969年minsky和papert指出感知机的缺陷并表示出对该方法研究的悲观态度,同时由于专家系统方法展示出的强大活力,使得神经网络在很长时间内处于一个发展的低潮。第二阶段即为1970-1986期间的发展低潮阶段,在此期间科学家们做出了大量的工作,如hopfield对网络引入能量函数的概念,给出了网络的稳定性判据,提出了用于联想记忆和优化计算的途径。1981-1984年kohonen提出自组织映射网络模型。1986年rumelhart等人提出误差反向传播神经网络,简称bp网络。目前bp网络已经得

53、到广泛应用。1987年至今为发展期,在此期间,神经网络得到了国际重视,许多国家都展开研究,形成神经网络发展的另一个高潮。三、神经网络技术人工神经网络的定义2不是统一的,t.koholen对人工神经网络的定义:“人工神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。”人工神经网络(articles neural network,ann)结构和工作机理基本上以人脑的组织结构(大脑神经元网络)和活动规律为背景的,它反映了人脑的某些基本特征,但并不是要对人脑部分的真实再现,可以说它是某种抽象、简化或模仿。 神经网络具有如下的特点:(1

54、) 由于信息分散存储于网络内的神经元中,因而神经网络具有很强的鲁棒性和容错性;(2) 并行处理能力,人工神经元在结构上是并行的,从而使得相似问题的处理可以同时进行,具有快速的特点;(3) 自学习、自组织、自适应性;(4) 可以逼近任意复杂的非线性系统,同时可以处理定性与定量信息,适用于处理非线性和不确定性问题。上述特点使得神经网络具有很广泛的适用范围,主要包括图象处理、模式识别、机器人控制、信号处理、经济分析、数据挖掘、医学、农业、电力系统、交通、地理、气象等诸多领域。1、人工神经元模型3神经元是大脑处理信息的基本单元,人脑大约由1011个神经元组成,神经元互相连接成神经网络。神经元以细胞体为主体,由许多向周围延伸的不规则树枝状纤维构成的神经细胞,其形状很像一棵枯树的枝干。主要由细胞体、树突、轴突和突触(synapse,又称神经键)组成 。图1 生物神经元的示意图生物神经元传递信息的过程为多输入、单输出,神经元各组成部分的功能来看,信息的处理与传递主要发生在突触附近,当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学物质,突触有两种类型,兴奋性突触和抑制性突触。前者产生正突触后电位,后者产生负突触后电位。人工神经元是神经网络的基本处理单元。它是对生物神经元的简化和模拟。图2给出了一种简化的神经元结构。

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!