ImageVerifierCode 换一换
格式:DOCX , 页数:7 ,大小:16.42KB ,
资源ID:4829463      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bingdoc.com/d-4829463.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(Python网络爬虫实习报告.docx)为本站会员(b****3)主动上传,冰点文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰点文库(发送邮件至service@bingdoc.com或直接QQ联系客服),我们立即给予删除!

Python网络爬虫实习报告.docx

1、Python网络爬虫实习报告Python网络爬虫实习报告一、选题背景 - 2 -二、爬虫原理 - 2 -三、爬虫历史和分类 - 2 -四、常用爬虫框架比较 - 5 -五、数据爬取实战(豆瓣网爬取电影数据) - 6 -1分析网页 - 6 -2爬取数据 - 7 -3数据整理、转换 - 10 -4数据保存、展示 - 12 -5技术难点关键点 - 12 -六、总结 - 14 -一、 选题背景二、 爬虫原理三、 爬虫历史和分类四、 常用爬虫框架比较Scrapy框架:Scrapy框架是一套比较成熟的Python爬虫框架,是使用Python开发的快速、高层次的信息爬取框架,可以高效的爬取web页面并提取出结

2、构化数据。Scrapy应用范围很广,爬虫开发、数据挖掘、数据监测、自动化测试等。Crawley框架:Crawley也是Python开发出的爬虫框架,该框架致力于改变人们从互联网中提取数据的方式。Portia框架:Portia框架是一款允许没有任何编程基础的用户可视化地爬取网页的爬虫框架。newspaper框架:newspaper框架是一个用来提取新闻、文章以及内容分析的Python爬虫框架。Python-goose框架:Python-goose框架可提取的信息包括:文章主体内容;文章主要图片;文章中嵌入的任heYoutube/Vimeo视频;元描述;元标签五、数据爬取实战(豆瓣网爬取电影数据)

3、1分析网页 # 获取html源代码def _getHtml(): data = pageNum = 1 pageSize = 0 try: while (pageSize = 125): 2爬取数据def _getData(html): title = # 电影标题 #rating_num = # 评分 range_num = # 排名 #rating_people_num = # 评价人数 movie_author = # 导演 data = # bs4解析html soup = BeautifulSoup(html, html.parser) for li in soup.find(ol,

4、 attrs=class: grid_view).find_all(li): title.append(li.find(span, class_=title).text) #rating_num.append(li.find(div, class_=star).find(span, class_=rating_num).text) range_num.append(li.find(div, class_=pic).find(em).text) #spans = li.find(div, class_=star).find_all(span) #for x in range(len(spans)

5、: # if x = 2: # pass # else: # rating_people_num.append(spansx.string-len(spansx.string):-3) str = li.find(div, class_=bd).find(p, class_=).text.lstrip() index = str.find(主) if (index = -1): index = str.find(.) print(li.find(div, class_=pic).find(em).text) if (li.find(div, class_=pic).find(em).text

6、= 210): index = 60 # print(aaa) # print(str4:index) movie_author.append(str4:index) datatitle = title #datarating_num = rating_num datarange_num = range_num #datarating_people_num = rating_people_num datamovie_author = movie_author return data3数据整理、转换 f.write() f.write() f.write(电影) #f.write(评分) f.w

7、rite(排名) #f.write(评价人数) f.write(导演) f.write() f.write()f.write() for data in datas: for i in range(0, 25): f.write() f.write(%s % datatitlei) # f.write(%s % datarating_numi) f.write(%s % datarange_numi) # f.write(%s % datarating_people_numi) f.write(%s % datamovie_authori) f.write() f.write()f.write

8、() f.write() f.write() f.write() f.close()if _name_ = _main_: datas = htmls = _getHtml() for i in range(len(htmls): data = _getData(htmlsi) datas.append(data) _getMovies(datas)4数据保存、展示结果如后图所示:5技术难点关键点数据爬取实战(搜房网爬取房屋数据)from bs4 import BeautifulSoupimport requestsrep = requests.get()rep.encoding = gb23

9、12 # 设置编码方式html = rep.textsoup = BeautifulSoup(html, html.parser)f = open(, w,encoding=utf-8)f.write()f.write(Insert title here)f.write()f.write(新房成交TOP3)f.write()f.write(房址)f.write(成交量)f.write(均价)for li in soup.find(ul,class_=ul02).find_all(li): name=li.find(div,class_=pbtext).find(p).text chengjia

10、oliang=li.find(span,class_=red-f3).text try: junjia=li.find(div,class_=ohter).find(p,class_=gray-9)#.text.replace(?O, 平方米) except Exception as e: junjia=li.find(div,class_=gray-9)#.text.replace(?O, 平方米) f.write(%s % name) f.write(%s % chengjiaoliang) f.write(%s % junjia) print(name)f.write()f.write()六、总结教师评语:成绩: 指导教师:

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2