抓取猫眼电影top100的数据
这是我关于爬虫得第二篇文字,其实应该放在第一篇,我看的三套视频顺序有点问题,本篇应该是算是最基础最简单的。
本篇博客主要记录猫眼视频Too100的榜单的数据,每条榜单的数据由以下6部分组成,这五部分主要是集中一个
标签中,故通过正则匹配可以获取其中的数据
- 索引
- 封面
- 标题
- 主演
- 上映时间
- 评分
- 索引是在i标签中
- 封面是在img标签的链接中
- 标题在a便签
- 主演是在p标签
- 上映时间在p标签
- 评分是在两个i标签中,拼起来的
这次爬取的代码大致分为4部分,页面获取,单条榜单的获取,页面所有榜单,最后保存到文件
有了前面的爬取的基础,这里就很简单, 主要就是通过一个url下载页面,本次依旧采用requests框架进行数据的下载
import requests
from requests.exceptions import RequestException
'''
1.获取单页的数据
'''
def get_one_page(url):
try:
response = requests.get(url)
if response.status_code == 200:
return response.text
print("errorcode:%d" % response.status_code)
return None
except RequestException:
print ("单页面获取失败")
return None
这一节是重头戏,通过正则匹配,将页面中6类有用的信息逐条拆解出来
- 源码
- 分析:
- 根据崔老师教程中提到,要提取的数据所以在标签的正则表达式要是标签闭合,比如索引是在i标签中,故开头
<i
结尾要用</i>
- 首先要dd开头,这是区分每一条单独的榜单,然后i标签,最好将css的样式匹配一部分,但是后边的
board-index-2
经过观察是不一样的,所以仅保留前半部分,然后分组(\d+)获取索引数据,最后i标签结束<dd>.*?<i.*?board-index.*?>(.*?)</i>
- 根据崔老师教程中提到,要提取的数据所以在标签的正则表达式要是标签闭合,比如索引是在i标签中,故开头
- 源码
- 注意�:
- 在分析之前,提出一点注意,当页面元素很多的时候,我们分不清到底哪个才是我们想要的资源的时候,可以通过浏览器的开发工具自带一个选择器(一般类似箭头的标识)去选中元素,这时候就会自定的定位到相应的页面元素
- 是还要记得和页面的源码对比一下,有时候会不一样,以页面源码为主,选择器当做一个参考
- 分析:封面主要是在img标签的src属性中,难度不大
<dd>.*?<i.*?board-index.*?>(.*?)</i>.*?<img.*?data-src="(.*?)"
- 源码
- 分析: 标题主要是a标签,如何唯一确定呢,可以通过其父标签p的属性来唯一标识
<dd>.*?<i.*?board-index.*?>(.*?)</i>.*?<img.*?data-src="(.*?)"
.*?<p.*?"name".*?<a.*?>(.*?)</a></p>
- 源码
- 分析:主要就是存在p标签中,通过star来唯一确定
<dd>.*?<i.*?board-index.*?>(.*?)</i>.*?<img.*?data-src="(.*?)"
.*?<p.*?"name".*?<a.*?>(.*?)</a>.*?star".*?>(.*?)</p>
-
分析:同上,不再赘述
<dd>.*?<i.*?board-index.*?>(.*?)</i>.*?<img.*?data-src="(.*?)"
.*?<p.*?"name".*?<a.*?>(.*?)</a>.*?star".*?>(.*?)</p>
.*?<p.*?releasetime".*?>(.*?)</p>
- 源码
- 分析:评分分两部分,在一个p标签之下,然后两个i标签,通过class加以区分
<dd>.*?<i.*?board-index.*?>(.*?)</i>.*?<img.*?data-src="(.*?)"
.*?<p.*?"name".*?<a.*?>(.*?)</a>.*?star".*?>(.*?)</p>
.*?<p.*?releasetime".*?>(.*?)</p>.*?<p.*?score".*?>
.*?integer".*?>(.*?)</i>.*?fraction".*?>(.*?)</i></p>.*?</dd>
属于Python基础知识,不过多赘述,请看代码
'''
3,将获取到的数据转换为json格式存储到本地文件
'''
def write_to_file(content):
with open("result.txt","a") as f:
# 字典转换为json字符串存储到文件
f.write(json.dumps(content) + "\n")
f.close()
'''
4.项目总调度
'''
def main():
# 主页面url
url = "http://maoyan.com/board/4"
# 获取页面
html = get_one_page(url)
# 遍历页面进行正则匹配
for item in parse_one_page(html):
# 写入文件
write_to_file(item)
if __name__ == "__main__":
main()
参看本地的txt文件,发现数据为Unicode编码,不易读取,根据视频中修改方式,报错,有可能是Python版本问题,我使用的是2.7的版本,但是视频中是3.x的版本
-
修改 头文件导入
import sys
reload(sys)
sys.setdefaultencoding('utf-8')
像前言中写道的,本文应该放在第一篇,算是爬虫里比较初级的,网页结构也较为简单,考查的知识点也主要是正则的匹配,除去这几点,还有几点自己感觉重要的罗列一下:
- 正则匹配的时候,如果正则的pattern过长,建议写一段就测试一下看能不能正常匹配,如果等所有的都写完在测试,不容易发现错误点
- 对于便签内取值的别不(.*?),这样的一定要注意闭合标签
- 通过浏览器的开发者工具只能大致看下代码结果,但是细节有时候不可信,前端可能会对页面源代码进行处理,所以匹配的时候要查看源代码进行匹配