我是靠谱客的博主 着急唇彩,最近开发中收集的这篇文章主要介绍python爬虫动态加载_Python(爬虫)- 动态加载案例分析,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

requests

"""

基于网络请求的模块。

环境的安装:pip install requests

作用:模拟浏览器发起请求

分析requests的编码流程:

1.指定url

2.发起了请求

3.获取响应数据

4.持久化存储

"""

"""

处理数据量级的问题:

遇到了对应的反爬机制

反爬机制:UA检测

反反爬策略:UA伪装

UA伪装的实现:

1.定义一个字典

2.在字典中进行相关请求头信息的伪装

3.将该字典作用到get方法的headers参数中即可

UA检测被作用到了大量的网站中,因此日后,爬虫程序编写中一定要直接加上UA的操作

"""

简单案例一

"""

url = 'https://www.cnblogs.com/zhaoganggang/p/12873354.html'

response = requests.get(url)

page_text = response.text

page_text.encode('utf-8')

print(page_text)

"""

简单案例二豆瓣 ajax

"""

需求:爬取豆瓣电影的详情数据

分析:

更多的电影数据是通过将滚轮滑动到底部后发起了ajax请求请求到的电影数据

对ajax请求的url进行捕获

对ajax请求的url进行请求发送

"""

"""

url= 'https://movie.douban.com/j/chart/top_list'

headers = {

'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36"

}

for i in range(0,10):

param = {

'type': '13',

'interval_id': '100:90',

'action':'',

'start': str(i*20),

'limit': '20',

}

response = requests.get(url=url,params=param,headers=headers)

mov_list = response.json()

for mov in mov_list:

name = mov['title']

sor = mov['score']

print(name+':'+sor)

"""

简单案例三肯德基+动态加载

"""

肯德基餐厅查询http://www.kfc.com.cn/kfccda/storelist/index.aspx

分析:

动态加载数据

动态加载数据

概念:通过其他/另一个请求请求到的数据

特性:可见非可得

判定相关的页面数据是否为动态加载的数据?

基于抓包工具定位到浏览器地址栏url对应的请求数据包,进行局部搜索:

搜索到:这组被搜索的数据不是动态加载的,可以直接爬取

没有搜到:这组数据是动态加载的,不可以直接爬取。

如何捕获动态加载的数据?

基于抓包工具进行全局搜索,最终可以定位到动态加载数据对应的数据包。

"""

"""

headers = {

'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36"

}

url = "http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword"

data = {

'cname': '',

'pid': '',

'keyword': '北京',

'pageIndex': '1',

'pageSize': '10',

}

response = requests.post(url=url,headers=headers,data=data)

pos_data = response.json()

# print(pos_data)

data_list = pos_data['Table1']

for i in data_list:

storeName=i.get('storeName')

addressDetail=i.get('addressDetail')

pro=i.get('pro')

provinceName=i.get('provinceName')

s = "{}:{}:{}:{}".format(storeName,addressDetail,pro,provinceName)

print(s)

"""

简单案例四药监总局+动态加载

"""

药监总局数据爬取,爬取的是每一家企业的详情数据

分析:

打开了某一家企业的详情页面,看到了企业的详情数据

判定改家企业的详情数据是否为动态加载的?

进行局部搜索

没有搜索到,说明数据是动态加载出来的

捕获动态加载的数据?

全局搜索,定位到了动态加载数据对应的数据包,提取出了url和请求参数

成功的捕获到了一家企业对应的详情数据

通过上述方式继续分析第二家企业,发现:

每一家企业对应动态加载数据的url都一样:http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById,只要请求参数id的值不一样!说明id值标识的就是每一家企业的唯一标识。

捕获每一家企业的id

在首页中,通过抓包工具对企业名称进行搜索,对应的数据包中发现了企业名称和id

url:http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsList

"""

"""

# 获取企业id

ids = [] # 所有企业id 爬取多个数据

url = "http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsList"

headers = {

'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36"

}

for page in range(1,6):

data = {

"on": "true",

"page": str(page),

"pageSize": "15",

"productName":"",

"conditionType": "1",

"applyname":"",

"applysn":"",

}

company_datas_json = requests.post(url=url, headers=headers, data=data).json()

# print(company_datas_json)

for dic in company_datas_json['list']:

_id = dic['ID']

ids.append(_id)

detail_url = 'http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById'

for _id in ids:

data = {

'id': _id

}

company_json = requests.post(url=detail_url, headers=headers,data=data).json()

print(company_json['epsName'],company_json['epsProductAddress'])

"""

"""

#爬取单个数据

headers = {

'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36"

}

url = 'http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById'

data = {

'id': 'ff83aff95c5541cdab5ca6e847514f88'

}

response = requests.post(url=url,headers=headers,data=data).json()

print(response)

"""

最后

以上就是着急唇彩为你收集整理的python爬虫动态加载_Python(爬虫)- 动态加载案例分析的全部内容,希望文章能够帮你解决python爬虫动态加载_Python(爬虫)- 动态加载案例分析所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(59)

评论列表共有 0 条评论

立即
投稿
返回
顶部