概述
前两期给大家介绍了如何利用requests库爬取小说和图片,这一期就和大家分享一下如何爬取京东商品的评价信息,这里先设置爬取50页,以做日后分析。
准备工作
下面式要用到的库,请确保电脑中有以下库,没有的话请自行安装。
import requests
import json
import time
import random
一,查找商品并检查网页
在浏览器里打开京东网站,然后找一款你想研究的商品,这里我以华为P30手机为例(因本文内容不做深入研究,所以暂先不需要登录)然后在页面中右键选择检查(或F12)打开开发者模式。
二,查找评论链接
在网页中找到评论按钮并点击使其加载数据,然后我们点击network查看数据。接着查找加载评论数据的请求url,我们可以复制某条评论中的一段话,然后在调试窗口中(Ctrl+F)调用搜索框进行搜索,可以得到对应的结果:
三,发起requests请求
得到评论数据接口url之后,就可以开始写代码抓取数据了。我们先尝试抓取一条数据,成功之后,我们再去分析如何实现批量抓取。上一篇我们已经讲解了如何使用requests库发起http请求,我们来看看代码:
def spider_comment(page=0):
url = 'https://club.jd.com/comment/productPageComments.action?callback=fetchcomment98&productId=100004404944&'
'score=0&sortType=5&page=%s&pageSize=10&isShadowSku=0&fold=1' % page
try:
headers = {
"referer": "https://item.jd.com/100004404944.html",
"user - agent": "Mozilla / 5.0"
}
r = requests.get(url, headers=headers)
r.raise_for_status()
except:
print("error")
四,数据的提取
点击查找后得到的结果,可以得到一组字符串,这便就是我们想要得到的结果。当然,此数据为jsonp跨域请求返回的json结果,所以我们只要把前面的’ fetchJSON_comment98( '和最后的 ’ ) ’ 去掉就可以得到json数据了,因为每个商品的编号可能不同,所以这里不做统一。json以键值对的形式保存,其中有一个名称为comments的key里面存放这我们想要的评论数据。再对comments值进行分析发现它包含了评论的内容,时间,id等信息,我们想要得到的评价内容则隐藏在content字段中。
# 去除前后无用字符
json_str = r.text[15:-2]
# 将json转换为python对象
json_obj = json.loads(json_str)
# 获取评价列表
comments = json_obj['comments']
# 可以用for循环打印出所有评论
for comment in comments:
print(comment['content']+'n')
五,数据存储
提取数据之后,我们将信息以TXT文本文件的格式保存起来,方便以后使用(这里提前创建好txt文件,只需循环写入即可)。
for comment in comments:
with open('E:/python/resource/comments.txt', 'a+') as f:
f.write(comment['content'])
f.write('n')
六,实现翻页,批量采集
完成第一页数据采集之后,我们来研究一下如何批量抓取?让我们看一看第一页评论数据的url:
https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId=100004404944&score=0&sortType=5&
page=0&pageSize=10
&isShadowSku=0&rid=0&fold=1
可以看到链接里面有两个参数 page=0&pageSize=10,page表示当前的页数,pageSize表示每页多少条,所以使这里的数字发生改变就可以实现翻页的功能。了解了翻页的原理后,那我们就开始实现它吧。首先,找到第二页按钮并点击,然后复制第一条评价去调试窗口搜索(方法同上),然后点击Headers查看第二页请求数据的url:
https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId=100004404944&score=0&sortType=5&
page=1&pageSize=10
&isShadowSku=0&rid=0&fold=1
通过比较第一页评价与第二页评价的url的区别,可以看出第一页page=0,第二页page=1,以此类推。所以只要在每次请求时将page参数递增就可以实现翻页了,这里可以利用迭代器来实现,(对spider_comment方法增加入参page:页数,然后在url中增加占位符,这样就可以动态修改url,爬取指定的页数)
。我们来看一下代码:
def change_page():
for i in range(50):
spider_comment(i)
time.sleep(random.random() * 5)
print("ok")
注:在for循环中设置了一个随机的休眠时间,用来模拟用户浏览,防止爬取太频繁被封ip
测试
最后调用主函数,实现爬虫:
if __name__ == '__main__':
change_page()
让我们看一看爬取的结果吧!
附源代码:
# coding='utf-8'
import requests
import json
import time
import random
import jieba
headers = {
"referer": "https://item.jd.com/100004404944.html",
"user - agent": "Mozilla / 5.0"
}
def spider_comment(page=0):
url = 'https://club.jd.com/comment/productPageComments.action?callback=fetchcomment98&productId=100004404944&'
'score=0&sortType=5&page=%s&pageSize=10&isShadowSku=0&fold=1' % page
try:
r = requests.get(url, headers=headers)
r.raise_for_status()
except:
print("error")
# 获取json字符串
json_str = r.text[15:-2]
# 将json转换为python对象
json_obj = json.loads(json_str)
# 获取评价列表
comments = json_obj['comments']
# 遍历列表并写入
for comment in comments:
with open('E:/python/resource/comments.txt', 'a+') as f:
f.write(comment['content'])
f.write('n')
def change_page():
for i in range(2):
spider_comment(i)
time.sleep(random.random() * 5)
print("ok")
if __name__ == '__main__':
# spider_comment()
change_page()
如有错误,欢迎私信纠正,谢谢支持!
最后
以上就是真实马里奥为你收集整理的python爬虫采集京东商品评价的全部内容,希望文章能够帮你解决python爬虫采集京东商品评价所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复