网络爬虫基本原理.docx

上传人:b****6 文档编号:7492042 上传时间:2023-05-11 格式:DOCX 页数:9 大小:594.93KB
下载 相关 举报
网络爬虫基本原理.docx_第1页
第1页 / 共9页
网络爬虫基本原理.docx_第2页
第2页 / 共9页
网络爬虫基本原理.docx_第3页
第3页 / 共9页
网络爬虫基本原理.docx_第4页
第4页 / 共9页
网络爬虫基本原理.docx_第5页
第5页 / 共9页
网络爬虫基本原理.docx_第6页
第6页 / 共9页
网络爬虫基本原理.docx_第7页
第7页 / 共9页
网络爬虫基本原理.docx_第8页
第8页 / 共9页
网络爬虫基本原理.docx_第9页
第9页 / 共9页
亲,该文档总共9页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

网络爬虫基本原理.docx

《网络爬虫基本原理.docx》由会员分享,可在线阅读,更多相关《网络爬虫基本原理.docx(9页珍藏版)》请在冰点文库上搜索。

网络爬虫基本原理.docx

网络爬虫基本原理

 

网络爬虫基本原理(总9页)

网络爬虫基本原理

网络爬虫根据需求的不同分为不同种类:

1.一种是爬取网页链接,通过url链接得到这个html页面中指定的链接,把这些链接存储起来,再依次以这些链接为源,再次爬取链接指向html页面中的链接……如此层层递归下去,常用的方法是广度优先或者深度优先,根据爬取层次需求不同而选择不同的方法达到最优效果,爬虫的效率优化是一个关键。

搜索引擎的第一个步骤就是通过爬虫得到需要索引的链接或数据,存放于数据库,然后对这些数据建立索引,然后定义查询语句,解析查询语句并利用检索器对数据库里的数据进行检索。

2.一种是爬取数据信息,如文本信息、图片信息等,有时需要做数据分析,通过某种手段来获取数据样本以供后续分析,常用的方法是爬虫获取指定数据样本或利用现有的公共数据库。

本文的微博爬虫和新闻数据爬取都属于第二种类,根据自定义搜索关键字爬取微博信息数据。

3.对于网络爬虫原理,其实并不复杂。

基本思路是:

由关键字指定的url把所有相关的html页面全抓下来(html即为字符串),然后解析html文本(通常是正则表达式或者现成工具包如jsoup),提取微博文本信息,然后把文本信息存储起来。

重点在于对html页面源码结构的分析,不同的html需要不同的解析方法;还有就是长时间爬取可能对IP有影响,有时需要获取代理IP,甚至需要伪装浏览器爬取。

(主要是针对像新浪等这些具有反扒功能的网站,新闻网站一般不会有这样的情况)。

对于微博,通常情况下是必须登录才能看到微博信息数据(比如腾讯微博),但是有的微博有搜索机制,在非登录的情况下可以直接通过搜索话题来查找相关信息(如新浪微博、网易微博)。

考虑到某些反爬虫机制,如果一个账号总是爬取信息可能会有些影响(比如被封号),所以本文采用的爬虫都是非登录、直接进入微博搜索页面爬取。

这里关键是初始url地址。

网络爬虫是搜索引擎抓取系统的重要组成部分。

爬虫的主要目的是是将互联网上的网页下载到本地形成一个活互联网内容的镜像备份。

这篇博客主要对爬虫及抓取系统进行一个简单的概述。

一、网络爬虫的基本结构及工作流程

通用的网络爬虫的框架如图所示:

网络爬虫框架图

网络爬虫的基本工作流程如下:

1.首先选取一部分精心挑选的种子URL;

2.将这些URL放入待抓取URL队列

3.从待抓取URL队列中取出待抓取URL,解析DNS,并且得到主机的ip,并将URL对应的网页下载下来,存储进已下载网页库中。

此外,将这些URL放进已抓取URL队列。

4.分析已抓取URL队列中的URL,分析其中的其他URL,并且将URL放入待抓取URL队列,从而进行下一个循环。

二、从爬虫角度对互联网进行划分

可将互联网所有页面分为五个部分:

1.已下载未过期网页

2.已下载已过期网页:

抓取到的网页实际上是互联网内容的一个镜像与备份,互联网是动态变化的,一部分互联网上的内容已经发生了变化,这时,这部分抓取到的网页就已经过期了。

3.待下载网页:

也就是带抓取URL队列中的那些页面

4.克制网页:

还没抓取下来,也没有在待抓取URL队列中,但是可以通过对已抓取页面或者待抓取URL对应页面进行分析获取到的URL,认为是可知网页

5.还有一部分网页,爬虫是无法抓取下载的,称为不可知网页

三、抓取策略

在爬虫系统中,待抓取URL队列是很重要的一部分。

待抓取URL队列中的URL以什么样的顺序排列也是一个很重要的问题,因为这涉及到先抓取那个页面,后抓取哪个页面,这也是所谓的抓取策略问题。

下面重点介绍几种常见的抓取策略

1.深度优先遍历策略

深度优先遍历策略是指网络爬虫会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。

遍历的路径:

A-F-GE-H-IBCD

1.宽度优先遍历策略

宽度优先遍历策略的基本思路是将新下载网页中发现的链接直接插入待抓取URL队列的末尾,也就是指网络爬虫会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页,以上图为例:

遍历路径为:

A-B-C-D-E-FGHI

2.反向链接数策略

反向链接数是指一个网页被其他网页链接指向的数量,反向链接数表示的是一个网页的内容受到其他人的推荐的程度。

因此,很多时候搜索引擎的抓取系统会使用这个指标来评价网页的重要程度,从而决定不同网页的抓取先后顺序。

在真实的网络环境中,由于广告链接、作弊链接的存在,反向链接数不能完全可靠,因此搜索引擎往往考虑一些可靠的反向链接数

4.PartialPageRank策略

PartialPageRank算法借鉴了PageRank算法的思想:

对于已经下载的网页,连同待爬取URL队列中的URL,形成网页集合,计算每个页面的PageRank值,计算完之后,将待抓取URL队列中的URL按照PageRank值的大小排列,并按照该顺序爬取页面。

如果每次抓取一个页面,就重新计算PageRank值,一种折中方案是:

没抓取K个页面后,重新计算一次PageRank值。

但是这种情况还会有一个问题:

对于已经下载下来的页面中分析出的链接,也就是我们之前提到的未知网页那一部分,暂时是没有PageRank值的。

为了解决这个问题,会给这些页面一个临时的pageRank值:

将这个网页所以入链传递进来的PageRank值进行汇总,这样就形成了该未知页面的PageRank值,从而参与排序。

下面举例说明:

策略

该算法实际上也是对页面进行一个重要性打分。

在算法开始前,给所以页面一个相同的初始现今,当瞎子了某个页面P之后,将P的现今分摊给所有从P中分析出的链接,并且将P的现金清空。

对于带抓取的URL,队列中的所有页面按照现金数进行排序。

1.大站优先策略

对于待抓取URL队列中的所有网页,根据所属的网站进行分类,对于待下载页面数多的网站,优先下载。

这个策略也因此叫做大站优先策略。

四.更新策略

互联网是实时变化的,具有很强的动态性,网页更新写了主要决定于何时更新之前已经下载过的页面。

1.历史参考策略

根据页面以往的历史更新数据,预测该页面未来何时会发生变化,一般是通过泊松分布进行建模预测

2.用户体验策略

尽管搜索引擎针对于某个查询条件能够返回数量巨大的结果,但是用户往往只关注前几页的结果。

因此抓取系统可以优先更新那些现实在现实查询结果前几页中的网页,而后再更新那些后面的网页,这种更新策略也是需要历史信息的。

用户体验策略暴力网页的多个历史版本,并且根据过去每次内容变化对搜索质量的影响,得出一个平均值,用这个平局值作为决定何时重新抓取的依据。

3.聚类抽样策略

前两种方法都有一个前提:

需要网页的历史信息,这样就存在两个问题,第一,系统要是为每个系统保存多个版本的历史信息,五一增加了很多的系统负担,第二,要是新的网页完全没有历史信息,就无法确定更新策略。

聚类抽样策略认为,网页具有很多属性,类似属性的网页,可以认为其更新频率也是类似的,要计算某一个类别网页的更新频率,只需要对这一类网页抽样,以他们的跟新周期作为整个类别的更新周期。

思路如下图:

五.分布式抓取系统结构

一般而言,抓取系统需要面对的是整个互联网上数以亿计的网页。

单个抓取程序不可能完成这样的任务。

往往需要多个抓取程序一起来处理。

进而出现了分布式抓取策略。

对于主从式而言,有一台专门的Master服务器来维护待抓取URL队列,它负责每次将URL分布到不同的Slave服务器,而Slave服务器则负责将实际的网页下载工作。

Master服务器处理维护待抓取URL队列以及分发URL之外,还要负责调解各个Slave服务器的负载情况,一面发生Slave服务器过劳或过剩。

1.对等式(Peertopeer)

最下层是分布在不同地理位置的数据中心,在每个数据中心里有若干台抓取服务器,而每台抓取服务器上可能部署了若干套爬虫程序,这就构成了一个基本的分布式抓取系统。

对于数据中心内的不同抓取服务器,协同工作的方式有几种

1.主从式(Master-Slave)

此种模式下,各个服务器的分工没有不同,每台抓取服务器都可以从待抓取的URL队列中获得URL,然后对该URL的主域名的hash值H,计算Hmodm(其中m是服务器的数量),计算得到的数就是处理该URL的主机编号。

举例:

假设对于URL,计算器hash值H=8,m=3,则Hmodm=2,因此由编号为2的服务器进行该链接的抓取。

假设这时候是0号服务器拿到这个URL,那么它将该URL转给服务器2,由服务器2进行抓取。

这种模式有一个问题,当有一台服务器死机或者添加新的服务器,那么所有URL的哈希求余的结果就都要变化。

也就是说,这种方式的扩展性不佳。

针对这种情况,又有一种改进方案被提出来。

这种改进的方案是一致性哈希法来确定服务器分工。

其基本结构如图所示:

一致性哈希将URL的主域名进行哈希运算,映射为一个范围在0-232之间的某个数。

而将这个范围平均的分配给m台服务器,根据URL主域名哈希运算的值所处的范围判断是哪台服务器来进行抓取。

如果某一台服务器出现问题,那么本该由该服务器负责的网页则按照顺时针顺延,由下一台服务器进行抓取。

这样的话,及时某台服务器出现问题,也不会影响其他的工作。

参考书目:

1.《这就是搜索引擎-核心技术详解》张俊林电子工业出版社

2.《搜索引擎技术基础》刘奕群等侵害大学出版社

06/18

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 农林牧渔 > 林学

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2