ImageVerifierCode 换一换
格式:DOCX , 页数:15 ,大小:322.42KB ,
资源ID:7749687      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bingdoc.com/d-7749687.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(信息检索实验报告汇总Word格式文档下载.docx)为本站会员(b****4)主动上传,冰点文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰点文库(发送邮件至service@bingdoc.com或直接QQ联系客服),我们立即给予删除!

信息检索实验报告汇总Word格式文档下载.docx

1、了解用户的信息需求、信息检索的技术或方法、满足信息用户的需求。搜索引擎(Search Engine,简称SE)是实现如下功能的一个系统:收集、整理和组织信息并为用户提供查询服务。面向WEB的SE是其中最典型的代表。三大特点:事先下载,事先组织,实时检索。垂直搜索引擎:垂直搜索引擎为2006年后逐步兴起的一类搜索引擎。不同于通用的网页搜索引擎,垂直搜索专注于特定的搜索领域和搜索需求(例如:机票搜索、旅游搜索、生活搜索、小说搜索、视频搜索等等),在其特定的搜索领域有更好的用户体验。相比通用搜索动辄数千台检索服务器,垂直搜索需要的硬件成本低、用户需求特定、查询的方式多样。Web检索的历史:1989年

2、,伯纳斯李在日内瓦欧洲离子物理研究所(CERN)开发计算机远程控制时首次提出了Web概念,并在1990年圣诞节前推出了第一个浏览器。 接下来的几年中,他设计出HTTP、URL和HTML的规范,使网络能够为普通大众所应用 。Ted Nelson 在1965年提出了超文本的概念.超文本传输协议(HTTP,HyperText Transfer Protocol)是互联网上应用最为广泛的一种网络传输协议,超文本标注语言(HTML)。1993, 早期的 web robots (spiders) 用于收集 URL: Wanderer、ALIWEB (Archie-Like Index of the WEB

3、)、WWW Worm (indexed URLs and titles for regex search)。1994, Stanford 博士生 David Filo and Jerry Yang 开发手工划分主题层次的雅虎网站。1994年初,WebCrawler是互联网上第一个支持搜索文件全部文字的全文搜索引擎,在它之前,用户只能通过URL和摘要搜索,摘要一般来自人工评论或程序自动取正文的前100个字。Lycos(Carnegie Mellon University Center for Machine Translation Announces Lycos )是搜索引擎史上又一个重要的进步

4、。除了相关性排序外,Lycos还提供了前缀匹配和字符相近限制,Lycos第一个在搜索结果中使用了网页自动摘要,而最大的优势还是它远胜过其它搜索引擎的数据量 。DEC的AltaVista 是一个迟到者,1995年12月才登场亮相. AltaVista是第一个支持自然语言搜索的搜索引擎,AltaVista是第一个实现高级搜索语法的搜索引擎(如AND, OR, NOT等) 。1995年博士生Larry Page开始学习搜索引擎设计,于1997年9月15日注册了的域名,1997年底,开始提供Demo。1999年2月,Google完成了从Alpha版到Beta版的蜕变。Google公司则把1998年9月

5、27日认作自己的生日。Google在Pagerank、动态摘要、网页快照、多文档格式支持、地图股票词典寻人等集成搜索、多语言支持、用户界面等功能上的革新,象Altavista一样,再一次永远改变了搜索引擎的定义。主要的进步在于应用链接分析根据权威性对部分结果排序 。北大天网 是国家“九五”重点科技攻关项目“中文编码和分布式中英文信息发现”的研究成果,由北大计算机系网络与分布式系统研究室开发,于1997年10月29日正式在CERNET上提供服务。2000年1月,超链分析专利发明人、前Infoseek资深工程师李彦宏与好友徐勇(加州伯克利分校博士)在北京中关村创立了XX(Baidu)公司2001年

6、8月发布B搜索引擎Beta版(此前Baidu只为其它门户网站搜狐新浪Tom等提供搜索引擎)。2001年10月22日正式发布Baidu搜索引擎。Baidu虽然只提供中文搜索,但目前收录中文网页超过9000万,可能是最大的的中文数据库。Web搜索引擎系统组成:Web数据采集系统网页预处理系统索引检索系统检索结果排序系统Web检索所在现阶段的挑战:数据的分布性:文档散落在数以百万计的不同服务器上,没有预先定义的拓扑结构相连。不稳定的数据高比例:许多文档迅速地添加或删除 (e.g. dead links).大规模:网络数据量的指数增长,由此引发了一系列难以处理的规模问题。无结构和冗余信息:每个HTML

7、页面没有统一的结构, 许多网络数据是重复的,将近 30% 的重复网页.数据的质量: 许多内容没有经过编辑处理,数据可能是错误的,无效的。错误来源有录入错误,语法错误,OCR错误等。异构数据:多媒体数据(images, video, VRML), 语言,字符集等. Web检索的基本过程:网页爬行下来预处理:网页去重,正文提取,分词等建立索引接受用户请求,检索词串的处理,查询重构找到满足要求的列表根据连接和文本中的词进行排序输出信息采集:信息采集是指为出版的生产在信息资源方面做准备的工作,包括对信息的收集和处理。它是选题策划的直接基础和重要依据。信息采集工作最后一个步骤的延伸,成选题策划的开端。信

8、息采集系统:信息采集系统以网络信息挖掘引擎为基础构建而成,它可以在最短的时间内,帮您把最新的信息从不同的Internet站点上采集下来,并在进行分类和统一格式后,第一时间之内把信息及时发布到自己的站点上去。从而提高信息及时性和节省或减少工作量。网络爬虫,是一种自动获取网页内容的程序,是搜索引擎的重要组成部分,因此搜索引擎优化很大程度上就是针对爬虫而做出的优化。倒排索引:倒排索引源于实际应用中需要根据属性的值来查找记录。这种索引表中的每一项都包括一个属性值和具有该属性值的各记录的地址。由于不是由记录来确定属性值,而是由属性值来确定记录的位置,因而称为倒排索引(inverted index)。带有

9、倒排索引的文件我们称为倒排索引文件,简称倒排文件(inverted file)。倒排文件(倒排索引),索引对象是文档或者文档集合中的单词等,用来存储这些单词在一个文档或者一组文档中的存储位置,是对文档或者文档集合的一种最常用的索引机制。建立倒排索引目的:对文档或文档集合建立索引,以加快检索速度倒排文档(或倒排索引)是一种最常用的索引机制倒排文档的索引对象是文档或文档集合中的单词等。例如,有些书往往在最后提供的索引(单词页码列表对),就可以看成是一种倒排索引倒排索引的组成:倒排文档一般由两部分组成:词汇表(vocabulary)和记录表(posting list)词汇表是文本或文本集合中所包含的

10、所有不同单词的集合。对于词汇表中的每一个单词,其在文本中出现的位置或者其出现的文本编号构成一个列表,所有这些列表的集合就称为记录表。相关工具1 ltp-Java版分词工具1.1文件_irlas.dll, _wsd.dll : 分词工具所需要的动态链接库,放在java工程的根目录下。nlptools.jar : jar文件。resource : 分词所需要的资源,需放在放在java工程的根目录下。1.2 使用方法下面将列出在实验过程中可能使用到的类:1) edu.hit.irlab.nlp.splitsentences.SplitSentences将中文文本按照有分割意义的标点符号(如句号)分开

11、,以句子的序列方式返回。输入为中文文本,输出为中文句子的序列。例如:SplitSentences sentenceSplit = new SplitSentences();List sentences = sentenceSplit.getSentences(text); sentences是对text分句之后的句子集合。2) edu.hit.irlab.nlp.irlas.IRLAS分词以及词性标注,使用方法如下:irlas = new IRLAS(); irlas.loadResource(); /调用分词方法前必须先加载资源Vector words = new Vector(); /用来

12、存储分词结果 posTags = new Vector /用来存储词性标注结果,标点符号的词性是“wp”。 irlas.wordSegment(sentence, words, posTags); /调用分词以及词性标注方法使用该文件可以将文件里的文本自动变成一个一个关键词,并且统计出此关键词出自哪个文档,建立哈希表进行存储,再存储在txt文件中。2 DownloadURL类edu.hit.irlab.util.web.DownloadURL类封装在nlptools中,包含一些常见的web操作,如下载网页、判断编码格式等。请特别注意:Google的检索结果在本程序发送的FF的head的情况下,

13、没有编码信息。 所以在爬Google的检索结果的时候请务必手动指定使用UTF-8编码。表格 1 DownloadURL类的方法介绍构造方法摘要DownloadURL()方法摘要staticjava.lang.StringdecodeContent(java.lang.StringbyteCode, java.lang.Stringencoding)根据字节码和相应的编码,将内容转换成对应的原始文字downURL(java.lang.Stringurladdr, java.lang.Stringtype)给定URL以及网页,爬取网页内容,如果网页有指定编码,则本程序会自动判断编码。若网页没有指定

14、编码,则默认为GB18030编码(兼容GBK,GB2312)type:模拟浏览器抓取网页,浏览器类型;IE8.0 or FF3.0encoding, java.lang.String给定URL以及网页的编码,爬取网页内容模拟浏览器抓取网页,浏览器类型; IE8.0 or FF3.0encodeContent(java.lang.Stringcontent, java.lang.String给定内容和编码,将内容转换成编码对应的字节码voidmain(java.lang.Stringargs)下面是一个下载“”网页的例子:/模拟IE8,以gb2312的编码格式下载“”的内容。String con

15、tent = DownloadURL.downURL(“”, “gb2312”, IE8.0);正文提取算法:将网页源代码中的HTML格式信息删除,每行仅保留文本内容,即文本行。接下来,正文内容块的抽取可以被看成一个优化问题,即计算行和,用于最大化低于行和高于行的非文本字符数,以及在行和行之间的行文本字符数,相应的就是最大化对应的目标函数,如公式所示。其中,是原始网页源代码中行的总字符数,是剔除HTML标签后行的的文本字符数,为网页源代码总行数,编号从0到。算法不需要针对特定网页书写正则表达式,不需要解析HTML以建立DOM结构,不被病态的HTML标签所累,可以高效、准确地定位网页正文内容块。

16、实验相关流程1. 基本流程和模块大致如下图所示:2. 爬取网页的基本流程如下图所示:3. 倒排索引的建立流程如下图所示:4. 搜索过程流程如下图所示:实验结果及分析:1. 爬取网页的结果如下:初始网址:第一次爬取得到的网址保存到本地文件test0.txt中:然后循环读取第一次爬取到的网址继续爬取网址得到第二次爬取到的网址,保存在本地文件test1.txt中:考虑到时间和大小等因素,实验只爬取了两层网址即停止。2. 提取正文:由于保存网址时使用哈希表存取,再写入本地文件,哈希表中使用网址作为key值,所以不会出现重复网址,即实现了网址去重,所以提取正文时只需循环读取本地文件中保存的网址,用上面提

17、到的正文提取方法提取正文即可,提取到的正文按顺序写入本地文件夹urlc中,文件中第一行为网页的网址,后面为网页正文,如下图所示:本实验共提取了683篇正文:3. 建立倒排索引:利用分词工具将提取到的正文分词,即使用分词工具将urlc文件夹中的文件内容分词,然后建立倒排索引,将建立好的倒排索引保存到本地文件irtable中:文件中第一项为关键词,后面为关键词出现的文档序号,由于文档中第一行为网址,所以根据文档序号即可以得到改关键词出现在哪一个网页中。如果该关键词在正文中多次出现,那么改文档号也会在改关键词key对应的value中多次出现,这样在搜索过程中即可根据该词在文档中出现的频率对输出结果排

18、序,出现频率高的网页会在前面显示,出现频率低的网页会在后面显示。4. 搜索:例如我们搜索“我在南海的回忆”,首先根据停用词表会去除“在”、“的”这些对搜索没有意义的词汇:经过去除停用词之后分词结果为:然后根据倒排索引搜索,并根据出现频率排序,得到的结果如下:这3个词在第264篇文档中共出现了13次,网址为在第284篇文档中出现了12次,网址为 , 所以第264的网址排在了第284的前面。这里需要注意的是,第264篇文档并以一定就是urlc文件夹中名为con264.txt这篇文档,从网址我们可以看出:网址并非因为在读取文件时,其读取顺序跟文件在文件夹中的排列顺序并不是完全一致的。结论:实验爬取网

19、页使用的广度优先爬取,爬取了两层网页,并对爬取到的网页进行了正文提取,得到了623篇文档,对其进行了倒排索引的建立,实现了搜索功能。对搜索结果根据在正文中出现的频率进行了排序。5. 不足:没有实现多线程进行网页爬取,使得系统比较缓慢,并且没有完成对多网页的去重处理,不能对重复网页进行甄别,使得存储大量的重复网页占用大量资源,并且没有考虑出度和入度,对网页进行等级划分,对于排序的权威性没有进行考虑,使得排序结果并不是十分智能;没有进行同义词扩展,使得很多信息都是不全面的,影响搜索结果。并且整个系统都是根据命令行进行操控的,应该加入图形界面,并且都是存储在文本中,没有惊醒日志的记录,最好能够连接数

20、据库,这样就能更加节约空间而且有数据的日志备份。6. 存在问题项目开展过程中,出现的主要问题是在爬取网页时遇到的编码问题,开始采用网上提供的爬取工具虽然可以爬取网页,但在爬取到的网页中有一部分存在乱码。于是到网上找了一些资料,获取网页编码后进行转码存储,最后虽然还是有一些问题,但在乱码率上已经有了大大的改观。7. 感谢最后要感谢秦老师这学期为我们讲授信息检索这么课程,让我对信息检索的认识有了很大的提高,并且是自己喜爱上了信息检索这个方向,对搜索引擎产生了很大的兴趣,提高了对研究生阶段的能力,感觉真的学到了很多宝贵的知识,了解很多前沿技术。在这个项目过程中我们遇到了很多的问题,通过师兄和同学的悉心指导,自己查找资料和与同学相互交流,解决了很多技术上的难点,并且不仅提高了自己的动手能力还对java语言有了更深入的了解。

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2