全文搜索引擎的设计与实现本科毕业论文

上传人:仙*** 文档编号:149427601 上传时间:2022-09-07 格式:DOC 页数:68 大小:1.90MB
收藏 版权申诉 举报 下载
全文搜索引擎的设计与实现本科毕业论文_第1页
第1页 / 共68页
全文搜索引擎的设计与实现本科毕业论文_第2页
第2页 / 共68页
全文搜索引擎的设计与实现本科毕业论文_第3页
第3页 / 共68页
资源描述:

《全文搜索引擎的设计与实现本科毕业论文》由会员分享,可在线阅读,更多相关《全文搜索引擎的设计与实现本科毕业论文(68页珍藏版)》请在装配图网上搜索。

1、 江汉大学本科毕业论文(设计)全文搜索引擎的设计与实现作者声明本人郑重声明:所呈交的学位论文是本人在导师的指导下独立进行研究所取得的研究成果。除了文中特别加以标注引用的内容外,本论文不包含任何其他个人或集体已经发表或撰写的成果作品。本人完全了解有关保障、使用学位论文的规定,同意学校保留并向有关学位论文管理机构送交论文的复印件和电子版。同意省级优秀学位论文评选机构将本学位论文通过影印、缩印、扫描等方式进行保存、摘编或汇编;同意本论文被编入有关数据库进行检索和查阅。本学位论文内容不涉及国家机密。论文题目:全文搜索引擎的设计与实现作者单位:江汉大学数学与计算机科学学院作者签名:XXX 2013年 5

2、 月 20 日学士学位论文论文题目 全文搜索引擎的设计与实现 (英 文) Full-text search engine design and Implementation 学 院 数学与计算机科学学院专 业 计算机科学与技术 班 级 B09082021 姓 名 XXX 学 号 200708202137 指导老师 YYY 2013 年5月20日摘要 目前定制和维护搜索引擎的需求越来越大,对于处理庞大的网络数据,如何有效的去存储它并访问到我们需要的信息,变得尤为重要。Web搜索引擎能有很好的帮助我们解决这一问题。本文阐述了一个全文搜索引擎的原理及其设计和实现过程。该系统采用B/S模式的Java

3、Web平台架构实现,采用Nutch相关框架,包括Nutch,Solr,Hadoop,以及Nutch的基础框架Lucene对全网信息的采集和检索。文中阐述了Nutch相关框架的背景,基础原理和应用。Nutch相关框架的出现,使得在java平台上构建个性化搜索引擎成为一件简单又可靠的事情。Nutch 致力于让每个人能很容易, 同时花费很少就可以配置世界一流的Web搜索引擎。目前国内有很多大公司,比如百度、雅虎,都在使用Nutch相关框架。由于Nutch是开源的,阅读其源代码,可以让我们对搜索引擎实现有更加深刻的感受,并且能够更加深度的定制需要的搜索引擎实现细节。本文首先介绍了课题研究背景,然后对系

4、统涉及到的理论知识,框架的相关理论做了详细说明,最后按照软件工程的开发方法逐步实现系统功能。关键词Nutch、Solr、Hadoop、Lucene、搜索引擎AbstractCurrently, the requirement of customizing and the search engine maintenance is larger and larger. For dealing with such enormous network data, especially, how to store it and access our necessary information has be

5、come so significant. However,web search engine can help us to solve this problem well.Thisacticledescribestheprincipleoffull-textsearchengine,andtheprocessforitsdesignandimplementation.ThissystemadoptsJavaWebplatformwithB/Smodel,andalsotherelativeframeofNutch,includingNutch,Solr,Hadoop,andcollection

6、andinspectionforwhole networkinformationbasedonLucene-thefoundationofNutch.Allinall,thistextmainlyelaboratesthebackgroudofrelativeframe,basicalprinciple,andapplicationforNutch.TheappearanceofNutchrelatedframework,makesthatbuildinganpersonalizedsearchenginebasedonJavaplatformtobeansimpleandreliablewa

7、y.Nutchiscommittedtomakeeveryoneconfigureaword-classwebsearchengineeasilyandlow-costly.Atpresent,therearemanybigcompaniesathome,likebaidu,yahoo,areusingsuchNutchrelativeframe.DuetothefactthatNutchisopen-source,readingitssourcecodecanletushaveamoreprofoundexperiencewhenrealizingthesearchengine,andatt

8、hesametime,cancustojmizetheneededdetailsforrealizingtheseachenginedeeply. At frist, this article introduces the background of research project. Then, it specifically describes the theoretical knowledge of system and the related theory of framework. Finally, it achieves the system function step by st

9、ep according to the development method of software engineering.KeywordsNutch、Solr、Hadoop、Lucene、Search Engine目录1 绪论11.1 课题背景及介绍11.2 课题研究目的及应用11.3 课题研究范围11.4 小结22 搜索引擎相关理论研究32.1 Web搜索引擎原理和结构32.1.1 搜索引擎三段式工作流程32.1.2 搜索引擎整体结构42.2 网页收集52.1.2 爬虫的工作流程52.1.3 爬虫的抓取策略52.1.4 链接数据库的建立62.1.5 链接数据库的更新62.3网页预处理62

10、.3.1 建立索引页面库72.3.2 分词92.3.3 倒排索引102.4 查询服务122.4.1 查询方式和匹配122.4.2 结果排序132.4.3 文档摘要142.5 小结153 NUTCH相关框架研究163.1 Lucene研究163.1.1 Lucene概述163.1.2 Lucene如何对索引进行搜索163.1.3 Lucene增删改索引的API173.2 Nutch研究213.2.1 Nutch概述213.2.2 研究Nutch的原因213.2.3 研究Nutch的目标223.2.4 Nutch和 Lucene比较223.2.5 Nutch常用命令223.3 Solr研究283.

11、3.1 Solr概述283.3.2 Solr索引283.3.3 Solr搜索293.3.4 Lucene索引查看工具Luke313.4 Hadoop研究323.4.1 Hadoop概述323.4.2 Hadoop单机本地模式343.4.3 Hadoop单机伪分布式模式343.5 小结364 全文搜索引擎系统分析与技术选型374.1 系统目标需求374.2 系统功能项374.3 可行性分析与决策374.3.1 技术可行性384.3.2 经济可行性384.4 小结395 全文搜索引擎系统设计与实现405.1 系统功能图405.2 系统实体设计405.2.1 实体405.2.2 实体的属性415.2

12、.3 实体间的联系425.3 系统实现425.3.1 系统需要的环境425.3.2 系统中Nutch的配置435.3.3 对整个网络进行抓取445.3.4 Solr安装配置和使用475.3.5 给Solr 4.2添加mmseg4j485.3.6 客户端应用程序的实现495.4 小结566 全文搜索引擎系统评价576.1 系统特色576.2 系统存在的不足和解决方案576.2.1 系统存在的不足576.2.2 改进措施586.2.3 毕业设计心得与收获587 结束语59致谢60参考文献61621 绪论1.1 课题背景及介绍随着互联网的快速发展,越来越丰富的信息呈现在用户面前,但同时伴随的问题是用

13、户越来越难以获得其最需要的信息。为了解决此问题,出现了网络搜索引擎。网络搜索引擎中以基于 WWW 的搜索引擎应用范围最为广泛。网络搜索引擎是指对WWW站点资源和其它资源进行索引和检索的一类检索机制。 全文搜索引擎是目前最为普及的应用 ,通过从互联网上提取各个网站的信息(以网页文字为主)建立数据库,用户查询的时候便在数据库中检索与用户查询条件相匹配的记录,最终将匹配的那些记录,按一定的排列顺序显示给用户。国外具代表性的全文检索搜索引擎有 Google、 Yahoo、 Bing等 ,国内著名的有百度、中搜等。目前网络中的资源非常丰富,但是如何有效的搜索信息却是一件困难的事情。建立搜索引擎就是解决这

14、个问题的最好方法之一。该课题要求设计一个Web应用程序,学习搜索引擎的基本原理和设计方法,应用开源的全文搜索引擎Lucene框架和Lucene的子项目Nutch实现一个全文搜索引擎。1.2 课题研究目的及应用 针对搜索引擎广阔的应用前景以及分析国内外搜索引擎的发展现状,根据搜索引擎系统的工作原理设计一种基于Internet的全文搜索引擎模型,它从互联网上获取网页,建立索引数据库,并采用数据库管理作业和多线程技术以提高全文搜索的性能和效率,从技术上可以适用于任何有全文搜索需求的应用。1.3 课题研究范围一般来说搜索引擎都由:用户接口,搜索器,索引生成器和查询处理器4个部分组成。 用户接口的作用是

15、输入用户查询、显示查询结果、提供用户相关性反馈机制。主要的目的是方便用户使用搜索引擎,高效率、多方式地从搜索引擎中得到有效、及时的信息。用户接口的设计和实现使用人机交互的理论和方法,以充分适应人类的思维习惯。 搜索器用于WWW的遍历和网页的下载。从一个起始URL集合开始,顺着这些URL中的超链(Hyperlink),以宽度优先、深度优先或启发式方式循环地在互联网中发现信息。 索引生成器对搜索器收集到的网页和相关的描述信息经索引组织后存储在索引库中。 查询处理器的功能是根据用户的查询在索引库中快速检出文档,进行文档与查询的相关度评价, 对将要输出的结果进行排序,并实现某种用户相关性反馈机制。1.

16、4 小结本章内容主要介绍了课题背景,课题目的,及课题的研究方法与内容这些方面。阐述了搜索引擎在显示应用中的重要性,目前全文搜索引擎的工作组成部分以及各个工作组成部分到底是什么。下面将具体介绍全文搜索引擎的相关理论,使读者全文搜索引擎的基本技术有所了解,为后续章节的阅读打下基础。2 搜索引擎相关理论研究2.1 Web搜索引擎原理和结构全文搜索引擎是一款网络应用软件系统,论文中全部以搜索引擎称。最基本的搜索引擎应该包含三个模块:网页搜集,预处理,查询服务。事实上,这三个部分是相互独立、分别工作的,主要的关系体现在前一部分得到的数据结果为后一部分提供原始数据。2.1.1 搜索引擎三段式工作流程三者的

17、关系如图2-1:图2-1搜索引擎三段式工作流程在介绍搜索引擎的整体结构之前,现在借鉴计算机网络自顶向下的方法描述因特网特色一书的叙事方法,从普通用户使用搜索引擎的角度来介绍搜索引擎的具体工作流程。自顶向下的方法描述搜索引擎执行过程:1用户通过浏览器提交查询的词或者短语 P,搜索引擎根据用户的查询返回匹配的网页信息列表 L;2. 上述过程涉及到两个问题,如何匹配用户的查询以及网页信息列表从何而来,根据什么而排序?用户的查询 P 经过分词器被切割成小词组 并被剔除停用词 ( 的、了、啊等字 ),根据系统维护的一个倒排索引可以查询某个词 pi 在哪些网页中出现过,匹配那些 都出现的网页集即可作为初始

18、结果,更进一步,返回的初始网页集通过计算与查询词的相关度从而得到网页排名,即 Page Rank,按照网页的排名顺序即可得到最终的网页列表;3. 假设分词器和网页排名的计算公式都是既定的,那么倒排索引以及原始网页集从何而来?原始网页集在之前的数据流程的介绍中,可以得知是由爬虫 spider 爬取网页并且保存在本地的,而倒排索引,即词组到网页的映射表是建立在正排索引的基础上的,后者是分析了网页的内容并对其内容进行分词后,得到的网页到词组的映射表,将正排索引倒置即可得到倒排索引;4. 网页的分析具体做什么呢?由于爬虫收集来的原始网页中包含很多信息,比如 html 表单以及一些垃圾信息比如广告,网页

19、分析去除这些信息,并抽取其中的正文信息作为后续的基础数据。2.1.2 搜索引擎整体结构图2-2 搜索引擎整体结构爬虫从 Internet 中爬取众多的网页作为原始网页库存储于本地,然后网页分析器抽取网页中的主题内容交给分词器进行分词,得到的结果用索引器建立正排和倒排索引,这样就得到了索引数据库,用户查询时,在通过分词器切割输入的查询词组并通过检索器在索引数据库中进行查询,得到的结果返回给用户。无论搜索引擎的规模大小,其主要结构都是由这几部分构成的,并没有大的差别,搜索引擎的好坏主要是决定于各部分的内部实现。有了上述的对与搜索引擎的整体了解,下面对搜索引擎的各个模块进行说明。2.2 网页收集全文

20、检索是工作在某个数据集合上的程序,他需要事先由页面抓取程序,在全网中抓取海量网页,这个抓取程序也叫网络爬虫或Spider。只有事先抓取了足够多的网页数据,并处理之,才能对大量的用户查询提供及时的响应。2.1.2 爬虫的工作流程网页收集的过程如同图的遍历,其中网页就作为图中的节点,而网页中的超链接则作为图中的边,通过某网页的超链接 得到其他网页的地址,从而可以进一步的进行网页收集;图的遍历分为广度优先和深度优先两种方法,网页的收集过程也是如此。综上,Spider 收集网页的过程如下:从初始 URL 集合获得目标网页地址,通过网络连接接收网页数据,将获得的网页数据添加到网页库中并且分析该网页中的其

21、他 URL 链接,放入未访问 URL 集合中用于网页收集。下图表示了这个过程:图2-3 Spider工作流程2.1.3 爬虫的抓取策略爬虫的工作策略一般分为累积式抓取(cumulative crawling)和增量式抓取(incremental crawing)两种。累积式抓取是指从某一个时间点开始,通过遍历的方式抓取系统所能允许存储和处理的所有网页。在理想的软硬件环境下,经过足够的运行时间,积累是抓取策略可以保证抓取到相当规模的网页集合。但由于Web数据的动态特性,集合中的网页的抓取时间点是不同的,页面被更新的情况也不同,因此累积式抓取到的网页集合事实上并无法与真实环境中的网络数据保持一致。

22、与累积式抓取不同,增量式抓取是指在具有一定量规模的网页集合的基础上,采用更新数据的方式选取已有集合中的过时页面进行抓取,以保证所抓取的数据与真实网络数据足够接近。进行增量式抓取的前提是,系统已经抓取了足够数量的网络页面,并具有这项页面被抓取的时间信息。面对实际应用环境的网络蜘蛛设计中,通常既包含累积式抓取,也包括增量式抓取的策略。累积式抓取一般用户数据集合的整体建立或大规模更新阶段;而增量式抓取则主要针对数据集合的日常维护和及时更新。2.1.4 链接数据库的建立初始URL的建立有两种方式:超链接和站长提交。超链接:爬虫会根据种子地址(可能是最先提交给爬虫的URL集合)抓取页面。站长提交:在实际

23、运行中,爬虫不可能抓取所有的站点,为此,网站站长可以向搜索引擎进行提交,要求收录,搜索引擎经过核查后,便将该网站加入到URL集合中,进行抓取。2.1.5 链接数据库的更新链接的注入:抓取程序会根据预先提供的URL集合进行标准化,根据设定的正则检验来过滤URL,将这些符合标准的URL放入到map中,并在构造map过程中给URL初始化得分,分数可以影响URL对应主机的搜索排序和采集优先级。接着会判断URL在抓取数据库中是否存在,如果存在,删除旧的,更新新的。如果不存在,将该URL的状态标记为未采集过。URL生成器:从抓取回来的网页中,将符合条件的URL提出出来,检测URL是否在有效更新时间里面,并

24、将URL载入相应的任务组,计算URL的hash值,搜集URL,直至达到规定的广度。2.3网页预处理网页预处理的主要目标是将原始网页通过一步步的数据处理变成可方便搜索的数据形式。预处理模块的整体结构如下:图2-4 预处理模块的整体结构通过爬虫的收集,保存下来的网页信息具有较好的信息存储格式,但是还是有一个缺点,就是不能按照网页 URL 直接定位到所指向的网页。所以,需要先建立网页的索引,如此通过索引,这样可以很方便的从原始网页库中获得某个 URL 对应的页面信息。之后,处理网页数据,对于一个网页,首先需要提取其网页正文信息,其次对正文信息进行分词,之后再根据分词的情况建立索引和倒排索引,这样,网

25、页的预处理也全部完成。2.3.1 建立索引页面库索引的主要过程:图2-5索引的主要过程索引过程可分为三个主要的操作阶段:将数据转换成文本分析文本将分析过的文本保存到数据库中转换成文本。在索引数据之前,首先必须将数据转换成纯文本字符流。但是,在现实世界中,信息多以富媒体文档格式呈现:PDF,WORD,EXCEL,HTML,XML等。为此需要使用文档解析器,将富媒体转换成纯文字字符流。分析文本。在对数据进行索引钱,还必须进行预处理,对数据进行分析是之更加适合被索引。分析数据时,现将文本数据切分成一些大块或者词汇单元,然后对它们执行一些可选的操作,例如:在索引之前将这些词汇单元转换成小写,使得搜索对

26、大小写不敏感;具有代表性的是要从输入中去掉一些使用很频繁但却没有实际意义的词,比如英文文本中的一些停用词(a、an、the、in、on等)。同样的,也需要分析输入的词汇单元,一遍从词语中去掉一些不必要的字母以找到他们的词干。这一处理过程称为分析。将分析后的数据写入索引。对输入数据分析处理完成后,就可以将结果写入索引文件中。结果一般包括网页标题,正文,所属住地址,主机,内容摘要,时间戳,当前URL地址等,并更具具体需要建立索引和存储。2.3.2 分词中文分词是指将一个汉字序列切分成一个一个单独的词,从而达到计算机可以自动识别的效果。中文分词主要有三种方法:第一种基于字符串匹配,第二种基于语义理解

27、,第三种基于统计。由于第二和第三种的实现需要大量的数据来支持,一般采用的是基于字符串匹配的方法。基于字符串匹配的方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与一个“充分大的”机器词典中的词条进行配,若在词典中找到某个字符串,则匹配成功(识别出一个词)。按照扫描方向的不同,串匹配分词方法可以分为正向匹配和逆向匹配;按照不同长度优先匹配的情况,可以分为最大(最长)匹配和最小(最短)匹配。常用的几种机械分词方法如下:正向减字最大匹配法(由左到右的方向);逆向减字最大匹配法(由右到左的方向);最少切分(使每一句中切出的词数最小);双向最大减字匹配法(进行由左到右、由右到左两次扫描);采用

28、其中的正向最大匹配法。算法描述如下:输入值为一个中文语句 S,以及最大匹配词 n取 S 中前 n 个字,根据词典对其进行匹配,若匹配成功,转 3,否则转 2;n = n 1:如果 n 为 1,转 3;否则转 1;将 S 中的前 n 个字作为分词结果的一部分,S 除去前 n 个字,若 S 为空,转 4;否则,转 1;算法结束。需要说明的是,在第三步的起始,n 如果不为 1,则意味着有匹配到的词;而如果 n 为 1,默认 1 个字是应该进入分词结果的,所以第三步可以将前 n 个字作为一个词而分割开来。还有需要注意的是对于停用词的过滤,停用词即汉语中“的,了,和,么”等字词,在搜索引擎中是忽略的,所

29、以对于分词后的结果,需要在用停用词列表进行一下停用词过滤。您也许有疑问,如何获得分词字典或者是停用词字典。停用词字典比较好办,由于中文停用词数量有限,可以从网上获得停用词列表,从而自己建一个停用词字典;然而对于分词字典,虽然网上有许多知名的汉字分词软件,但是很少有分词的字典提供。在程序使用过程中,分词字典可以放入一个集合中,这样就可以比较方便的进行比对工作。分词的结果对于搜索的精准性有着至关重要的影响,好的分词策略经常是由若干个简单算法拼接而成的,所以您也可以试着实现双向最大减字匹配法来提高分词的准确率。而如果遇到歧义词组,可以通过字典中附带的词频来决定哪种分词的结果更好。2.3.3 倒排索引

30、倒排索引(英语:Inverted index),也常被称为反向索引、置入档案或反向档案,是一种索引方法,被用来存储在全文搜索下某个单词在一个文档或者一组文档中的存储位置的映射。它是文档索引系统中最常用的数据结构。有两种不同的反向索引形式:一条记录的水平反向索引(或者反向档案索引)包含每个引用单词的文档的列表。一个单词的水平反向索引(或者完全反向索引)又包含每个单词在一个文档中的位置。后者的形式提供了更多的兼容性(比如短语搜索),但是需要更多的时间和空间来创建。下面将以图示和实例的方式分别说明正向索引和倒排索引。图2-6正向索引图2-7倒排索引以英文为例,下面是要被索引的文本:it is wha

31、t it iswhat is itit is a banana这样就能得到下面的反向文件索引: a: 2 banana: 2 is: 0, 1, 2 it: 0, 1, 2 what: 0, 1检索的条件what,is和it将对应这个集合:。对相同的文字,得到后面这些完全反向索引,有文档数量和当前查询的单词结果组成的的成对数据。 同样,文档数量和当前查询的单词结果都从零开始。所以,banana: (2, 3)就是说 banana在第三个文档里 (),而且在第三个文档的位置是第四个单词(地址为 3)。a: (2, 2)banana: (2, 3)is: (0, 1), (0, 4), (1, 1

32、), (2, 1)it: (0, 0), (0, 3), (1, 2), (2, 0) what: (0, 2), (1, 0)如果执行短语搜索what is it将得到这个短语的全部单词各自的结果所在文档为文档0和文档1。但是这个短语检索的连续的条件仅仅在文档1得到。2.4 查询服务查询服务的整体结构如下:图2-8查询服务的整体结构在网页预处理后,每个元素至少包含如下几个方面:原始网页文档URL和标题编号所含的重要关键词的集合(以及他们在文档中出现的位置信息)其他一些指标(例如重要程度,分类代码等)而系统关键词总体的集合和文档的编号一起构成了一个倒排文件结构,使得一旦得到一个关键词输入,系统

33、能迅速给出相关文档编号的集合输出。 2.4.1 查询方式和匹配查询方式指的是系统允许用户提交查询的形式。考虑到各种用户的不同背景和不同的信息需求不可能有一种普适的方式。一般认为,对于普通网络用户来说,最自然的方式就是“要什么就输入什么”。但这是一种相当模糊的说法。例如用户输入“江汉大学”,可能是他想了解江汉大学目前的招生状况,可能需要找到江汉大学教务系统的网址,可能需要了解大家对江汉大学的评价。这是三种相当不同的需求。在其他一些情况下,用户可能关心的是间接的信息,例如“江汉大学录取分数线”,450分应该是他需要的,但不可能包含在这个短语中。尽管如此,用一个次或短语来间接表达信息需求,希望网页中

34、含有该词或该短语中的词,依然是主流的搜索引擎查询模式。这不仅是因为他的确代表了大多数的情况,还因为它比较容易实现。这样,一般来讲,系统面对的是查询短语。一般地,用q0表示用户提交的原始查询,例如,q0 =“网络与分布式系统实验室”。它首先需要被“切词”(segment)或称“分词”,即把它分成一个词的序列。如上例,则为“网络 与 分布式 系统 实验室”(注意,不同的分词软件可能得出不同的结果)。然后需要删除那些没有查询意义或者几乎在每篇文档中都会出现的词(例如“的”),在本例中即为“与”。最后形成一个用于参加匹配的查询词表,q = t1, t2, , tm,在本例中就是q = 网络,分布式,系

35、统,实验室。倒排文件就是用词来作为索引的一个数据结构,显然,q中的词必须是包含在倒排文件词表中才有意义。有了这样的q,它的每一个元素都对应倒排文件中的一个倒排表(文档编号的集合),记作L(ti),它们的交集即为对应查询的结果文档集合,从而实现了查询和文档的匹配。上述过程的基本假设是:用户是希望网页包含所输入查询文字的。 2.4.2 结果排序就目前的技术情况看,列表是最常见的形式(但人们也在探求新的形式,如Vivisimo 引擎将结果页面以类别的形式呈现)。给定一个查询结果集合,R=r1, r2, , rn,所谓列表,就是按照某种评价方式,确定出R中元素的一个顺序,让这些元素以这种顺序呈现出来。

36、笼统地讲,ri和q的相关性(relevance)是形成这种顺序的基本因素。但是,有效地定义相关性本身是很困难的,从原理上讲它不仅和查询词有关,而且还和用户的背景,以及用户的查询历史有关。不同需求的用户可能输入同一个查询,同一个用户在不同的时间输入的相同的查询可能是针对不同的信息需求。为了形成一个合适的顺序,在搜索引擎出现的早期人们采用了传统信息检索领域很成熟的基于词汇出现频度的方法。大致上讲就是一篇文档中包含的查询(q)中的那些词越多,则该文档就应该排在越前面;再精细一些的考虑则是若一个词在越多的文档中有出现,则该词用于区分文档相关性的作用就越小。这样一种思路不仅有一定直觉上的道理,而且在倒排

37、文件数据结构上很容易实现。因为,当通过前述关键词的提取过程,形成一篇文档的关键词集合,p = t1, t2, , tn的时候,很容易同时得到每一个ti在该文档中出现的次数,即词频,而倒排文件中每个倒排表的长度则对应着一个词所涉及的文档的篇数,即文档频率。然而,由于网页编写的自发性、随意性较强,仅仅针对词的出现来决定文档的顺序,在Web上做信息检索表现出明显的缺点,需要有其他技术的补充。这方面最重要的成果就是前面提到过的PageRank。通过在预处理阶段为每篇网页形成一个独立于查询词(也就和网页内容无关)的重要性指标,将它和查询过程中形成的相关性指标结合形成一个最终的排序,是目前搜索引擎给出查询

38、结果排序的主要方法。 2.4.3 文档摘要搜索引擎给出的结果是一个有序的条目列表,每一个条目有三个基本的元素:标题,网址和摘要。其中的摘要需要从网页正文中生成。一般来讲,从一篇文字中生成一个恰当的摘要是自然语言理解领域的一个重要课题,人们已经做了多年的工作并取得了一些成果。但相关的技术用到网络搜索引擎来有两个基本困难。一是网页的写作通常不规范,文字比较随意,因此从语言理解的角度难以做好;二是复杂的语言理解算法耗时太多,不适应搜索引擎要高效处理海量网页信息的需求。据统计,即使是分词这一项工作(文本理解的基础),在高档微机上每秒钟也只能完成10篇左右网页的处理。因此搜索引擎在生成摘要时要简便许多,

39、基本上可以归纳为两种方式,一是静态方式,即独立于查询,按照某种规则,事先在预处理阶段从网页内容提取出一些文字,例如截取网页正文的开头512个字节(对应256个汉字),或者将每一个段落的第一个句子拼起来,等等。这样形成的摘要存放在查询子系统中,一旦相关文档被选中与查询项匹配,就读出返回给用户。显然,这种方式对查询子系统来说是最轻松的,不需要做另外的处理工作。但这种方式的一个最大的缺点是摘要和查询无关。一篇网页有可能是多个不同查询的结果。当用户输入某个查询,他一般是希望摘要中能够突出显示和查询直接对应的文字,希望摘要中出现和他关心的文字相关的句子。因此,有了“动态摘要”方式,即在响应查询的时候,根

40、据查询词在文档中的位置,提取出周围的文字来,在显示时将查询词标亮。这是目前大多数搜索引擎采用的方式。为了保证查询的效率,需要在预处理阶段分词的时候记住每个关键词在文档中出现的位置。 2.5 小结本章主要介绍了搜索引擎的相关理论。以web搜索引擎为主要介绍对象。首先,从Web搜索引擎原理和结构介绍,阐述了搜索引擎三段式的工作原理,以及给出了目前主流搜索引擎实现的整体结构描述。其次分别用三个章节分别介绍三段式工作流程中涉及到的各个流程的主要工作,以及工作中所采用什么样的工作策略。3 Nutch相关框架研究3.1 Lucene研究3.1.1 Lucene概述Lucene是一套用于全文检索和搜寻的开放

41、源码程序库,由Apache软件基金会支持和提供的,高效的,基于Java的全文检索库。它并不是一个完整的应用程序,而是一组代码库,并提供了方便实现搜索引擎的API。Lucene 是一个高效的基于 Java 的全文检索库。所以在了解 Lucene 之前要了解一下全文检索。 那么什么叫做全文检索呢? 生活中的数据总体分为两种:结构化数据和非结构化数据。 3.1.2 Lucene如何对索引进行搜索 第一步:用户输入查询语句。 查询语句同我们普通的语言一样,也是有一定语法的。 不同的查询语句有不同的语法,如 SQL语句就有一定的语法。 查询语句的语法根据全文搜索引擎的实现而不同。最基本的有比如:AND,

42、 OR, NOT 等。 举个例子,用户输入语句:lucene AND learned NOT hadoop。 说明用户想找一个包含 lucene和 learned然而不包括hadoop的文档。 第二步:对查询语句进行词法分析,语法分析,及语言处理。 由于查询语句有语法,因而也要进行语法分析,语法分析及语言处理。 1. 词法分析主要用来识别单词和关键字。 如果在词法分析中发现不合法的关键字,则会出现错误。2. 语法分析主要是根据查询语句的语法规则来形成一棵语 。 如果发现查询语句不满足语法规则,则会报错。3. 语言处理同索引过程中的语言处理几乎相同 。 经过第二步,得到一棵经过语言处理的语法树。

43、第三步:搜索索引,得到符合语法树的文档。 第四步:根据得到的文档和查询语句的相关性,对结果进行排序。3.1.3 Lucene增删改索引的APILucene可对email,网页,文本资料,doc,pdf之类的文档进行索引建立,在建立索引的时候可为以后的排序做些处理。表 4-1给出了通过内存建立文本信息索引的一个例子。.表 4-1建立索引public class IndexUtil private String ids = 1, 2, 3, 4, 5, 6;private String emails = aa, ss88817, 420418858,496008642, ss88817, ss88

44、17, fight;private String contents = wel com to sina aa, how are you ss88817, are you ok 496008642,what are you doing, 496008642, Have a good night, ss88817,good morning ,ss88817;private int attachs = 2, 3, 1, 4, 5, 3;private String names = tom, lily, john, jack, mike, bob;private Directory directory

45、 = null;private IndexWriterConfig iwc = null;public IndexUtil()try /directory = FSDirectory.open(new File(D:bslucenetestdir01);directory = new RAMDirectory(); catch (Exception e) e.printStackTrace();public void index()IndexWriter writer = null;try iwc = new IndexWriterConfig(Version.LUCENE_36, new S

46、tandardAnalyzer(Version.LUCENE_36);writer = new IndexWriter(directory, iwc);Document doc = null;for(int i=0; iids.length; i+)doc = new Document();doc.add(new Field(id, idsi, Field.Store.YES, Field.Index.NOT_ANALYZED_NO_NORMS);doc.add(new Field(email, emailsi, Field.Store.YES, Field.Index.NOT_ANALYZE

47、D);doc.add(new Field(content, contentsi, Field.Store.NO, Field.Index.ANALYZED);doc.add(new Field(name, namesi, Field.Store.YES, Field.Index.NOT_ANALYZED_NO_NORMS);writer.addDocument(doc);System.out.println(Index Create OK!); catch (Exception e) e.printStackTrace(); finally try writer.close(); catch

48、(Exception e) e.printStackTrace();System.out.println(Index Writer Close Error !);Lucene查询服务是根据通过的关键字,从已建立的索引中查询符合分词规则的信息。表 3-2给出了通过检索索引的一个例子。表 3-2查询服务public void query()IndexReader reader = null;try reader = IndexReader.open(directory); /通过reader可以获取有效的文档数量/reader.maxSystem.out.println(numDocs: + re

49、ader.numDocs();System.out.println(maxDoc: + reader.maxDoc(); catch (Exception e) e.printStackTrace(); finally try reader.close(); catch (IOException e) e.printStackTrace();System.out.println(Index Reader Close Error !);Lucene索引更新是根据提供的新信息,删除,回复,修改索引的过程。表 3-3,表 3-4给出了删除、恢复、强制删除索引的一个例子。表 3-3删除、恢复、强制删除

50、索引public void delete()IndexWriter writer = null;try iwc = new IndexWriterConfig(Version.LUCENE_36, new StandardAnalyzer(Version.LUCENE_36);writer = new IndexWriter(directory, iwc);writer.deleteDocuments(new Term(id, 1);System.out.println(Index where id = 1 delete ok!); catch (Exception e) e.printSta

51、ckTrace(); finally if(writer != null)try writer.close(); catch (Exception e) e.printStackTrace();System.out.println(Index Writer Close Error );public void unewdelete()IndexReader reader = null;try reader = IndexReader.open(directory, false);reader.undeleteAll(); /恢复所有索引System.out.println(All Index U

52、ndelte Ok!); catch (Exception e) e.printStackTrace(); finally try reader.close(); catch (IOException e) e.printStackTrace();System.out.println(Index Reader Close Error !);public void forceDelete()IndexWriter writer = null;try iwc = new IndexWriterConfig(Version.LUCENE_36, new StandardAnalyzer(Versio

53、n.LUCENE_36);writer = new IndexWriter(directory, iwc);writer.forceMergeDeletes();System.out.println(Index where id = 1 delete ok!); catch (Exception e) e.printStackTrace(); finally if(writer != null)try writer.close(); catch (Exception e) e.printStackTrace();System.out.println(Index Writer Close Err

54、or );表 3-4强制合并索引public void forceMerge()IndexWriter writer = null;try iwc = new IndexWriterConfig(Version.LUCENE_36, new StandardAnalyzer(Version.LUCENE_36);writer = new IndexWriter(directory, iwc);/会将索引合并为3段,这3段中被删除的数据会被清空/特别注意:此处Lucene在3.5以后不建议使用,因为会消耗大量的开销,Lucene会自动优化writer.forceMerge(3);System.o

55、ut.println(Index where id = 1 delete ok!); catch (Exception e) e.printStackTrace(); finally if(writer != null)try writer.close(); catch (Exception e) e.printStackTrace();System.out.println(Index Writer Close Error );3.2 Nutch研究3.2.1 Nutch概述Apache Nutch是一个用Java编写的开源网络爬虫。通过它,就能够自动地找到网页中的超链接,从而极大地减轻了维护

56、工作的负担,例如检查那些已经断开了的链接,或是对所有已经访问过的网页创建一个副本以便用于搜索。接下来就是Apache Solr所要做的。Solr是一个开源的全文搜索框架,通过Solr能够搜索Nutch已经访问过的网页。Apache Nutch对于Solr已经支持得很好,这大大简化了Nutch与Solr的整合。这也消除了过去依赖于Apache Tomcat来运行老的Nutch网络应用以及依赖于Apache Lucene来进行索引的麻烦。3.2.2 研究Nutch的原因可能有的朋友会有疑问,已经有google,有百度,为何还需要建立自己的搜索引擎呢?这里我列出3点原因: (1) 透明度:nutch

57、是开放源代码的,因此任何人都可以查看他的排序算法是如何工作的。商业的搜索引擎排序算法都是保密的,无法知道为什么搜索出来的排序结果是如何算出来的。更进一步,一些搜索引擎允许竞价排名,比如百度,这样的索引结果并不是和站点内容相关的。因此 nutch 对学术搜索和政府类站点的搜索来说,是个好选择,因为一个公平的排序结果是非常重要的。(2) 对搜索引擎的理解:我们并没有google的源代码,因此学习搜索引擎Nutch是个不错的选择。了解一个大型分布式的搜索引擎如何工作是一件让人很受益的事情。在写Nutch的过程中,从学院派和工业派借鉴了很多知识:比如,Nutch的核心部分目前已经被重新用 Map Re

58、duce 实现了。Map Reduce 是一个分布式的处理模型,最先是从 Google 实验室提出来的。并且 Nutch 也吸引了很多研究者,他们非常乐于尝试新的搜索算法,因为对Nutch 来说,这是非常容易实现扩展的。(3) 扩展性:你是不是不喜欢其他的搜索引擎展现结果的方式呢?那就用 Nutch 写你自己的搜索引擎吧。 Nutch 是非常灵活的:他可以被很好的客户订制并集成到你的应用程序中,使用Nutch 的插件机制,Nutch 可以作为一个搜索不同信息载体的搜索平台。当然,最简单的就是集成Nutch到你的站点,为你的用户提供搜索服务。3.2.3 研究Nutch的目标nutch致力于让每个人能很容易, 同时花费很少就可以配置世界一流的Web搜索引擎. 为了完成这一宏伟的目标, nutch必须能够做到: 每个月取几十亿网页 为这些网页维护一个索引 对索引文件进行每秒上千次的搜索 提供高质量的搜索结果 以最小的成本运作 3.2.4 Nutch和 Lucene比较 简单的说,Lucene 不是完整的应用程序,而是一个用于实现全文检索的软件库。Nutch 是一个应用程序,可以以 Lucene 为基础实现搜索引擎应用。Lucene为 Nutch 提供了文本索引和搜索的API。一个常见的问题

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!