我是靠谱客的博主 缥缈鞋垫,最近开发中收集的这篇文章主要介绍php spider 参数详解,scrapy爬虫:scrapy.FormRequest中formdata参数详解,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

1. 背景

在网页爬取的时候,有时候会使用scrapy.FormRequest向目标网站提交数据(表单提交)。参照scrapy官方文档的标准写法是:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22# header信息

unicornHeader= {

'Host':'www.example.com',

}

# 表单需要提交的数据

myFormData= {'name':'John Doe','age':'27'}

# 自定义信息,向下层响应(response)传递下去

customerData= {'key1':'value1','key2':'value2'}

headers= unicornHeader,

method= 'POST',# GET or POST

formdata= myFormData,# 表单提交的数据

meta= customerData,# 自定义,向response传递数据

callback= self.after_post,

errback= self.error_handle,

# 如果需要多次提交表单,且url一样,那么就必须加此参数dont_filter,防止被当成重复网页过滤掉了

dont_filter= True

)

但是,当表单提交数据myFormData 是形如字典内嵌字典的形式,又该如何写?

2. 案例 — 参数为字典

在做亚马逊网站爬取时,当进入商家店铺,爬取店铺内商品列表时,发现采取的方式是ajax请求,返回的是json数据。

请求信息如下:

216598401_1_20210301114729927.jpg

216598401_2_20210301114730239.jpg

响应信息如下:

216598401_3_20210301114730349.jpg

如上图所示,From Data中的数据包含一个字典:

1

2

3

4

5

6

7

8

9

10

11marketplaceID:ATVPDKIKX0DER

seller:A2FE6D62A4WM6Q

productSearchRequestData:{"marketplace":"ATVPDKIKX0DER","seller":"A2FE6D62A4WM6Q","url":"/sp/ajax/products","pageSize":12,"searchKeyword":"","extraRestrictions":{},"pageNumber":"1"}

# formDate 必须构造如下:

myFormData= {

'marketplaceID' :'ATVPDKIKX0DER',

'seller' :'A2FE6D62A4WM6Q',

# 注意下面这一行,内部字典是作为一个字符串的形式

'productSearchRequestData' :'{"marketplace":"ATVPDKIKX0DER","seller":"A2FE6D62A4WM6Q","url":"/sp/ajax/products","pageSize":12,"searchKeyword":"","extraRestrictions":{},"pageNumber":"1"}'

}

在amazon中实际使用的构造方法如下:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36def sendRequestForProducts(response):

ajaxParam= response.meta

for pageIdxin range(1, ajaxParam['totalPageNum']+1):

ajaxParam['isFirstAjax']= False

ajaxParam['pageNumber']= pageIdx

unicornHeader= {

'Host':'www.amazon.com',

'Referer': ajaxParam['referUrl'],

}

'''

marketplaceID:ATVPDKIKX0DER

seller:AYZQAQRQKEXRP

productSearchRequestData:{"marketplace":"ATVPDKIKX0DER","seller":"AYZQAQRQKEXRP","url":"/sp/ajax/products","pageSize":12,"searchKeyword":"","extraRestrictions":{},"pageNumber":1}

'''

productSearchRequestData= '{"marketplace": "ATVPDKIKX0DER", "seller": "' + f'{ajaxParam["sellerID"]}' + '","url": "/sp/ajax/products", "pageSize": 12, "searchKeyword": "","extraRestrictions": {}, "pageNumber": "' + str(pageIdx)+ '"}'

formdataProduct= {

'marketplaceID': ajaxParam['marketplaceID'],

'seller': ajaxParam['sellerID'],

'productSearchRequestData': productSearchRequestData

}

productAjaxMeta= ajaxParam

# 请求店铺商品列表

yield scrapy.FormRequest(

headers= unicornHeader,

formdata= formdataProduct,

func= 'POST',

meta= productAjaxMeta,

callback= self.solderProductAjax,

errback= self.error,# 处理http error

dont_filter= True,# 需要加此参数的

)

3. 原理分析

举例来说,目前有如下一笔数据:

1

2

3

4formdata= {

'Field': {"pageIdx":99,"size":"10"},

'func':'nextPage',

}

从网页上,可以看到请求数据如下:

Field=%7B%22pageIdx%22%3A99%2C%22size%22%3A%2210%22%7D&func=nextPage

第一种,按照如下方式发出请求,结果如下(正确):

1

2

3

4

5

6

7

8

9

10

11yield scrapy.FormRequest(

headers= unicornHeader,

formdata= {

'Field':'{"pageIdx":99, "size":"10"}',

'func':'nextPage',

},

func= 'POST',

callback= self.handleFunc,

)

# 请求数据为:Field=%7B%22pageIdx%22%3A99%2C%22size%22%3A%2210%22%7D&func=nextPage

第二种,按照如下方式发出请求,结果如下(错误,无法获取到正确的数据):

1

2

3

4

5

6

7

8

9

10

11yield scrapy.FormRequest(

headers= unicornHeader,

formdata= {

'Field': {"pageIdx":99,"size":"10"},

'func':'nextPage',

},

func= 'POST',

callback= self.handleFunc,

)

# 经过错误的编码之后,发送的请求为:Field=size&Field=pageIdx&func=nextPage

我们跟踪看一下scrapy中的源码:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27# E:/Miniconda/Lib/site-packages/scrapy/http/request/form.py

# FormRequest

class FormRequest(Request):

def __init__(self,*args,**kwargs):

formdata= kwargs.pop('formdata',None)

if formdataand kwargs.get('func')is None:

kwargs['func']= 'POST'

super(FormRequest,self).__init__(*args,**kwargs)

if formdata:

items= formdata.items()if isinstance(formdata,dict)else formdata

querystr= _urlencode(items,self.encoding)

if self.func== 'POST':

self.headers.setdefault(b'Content-Type', b'application/x-www-form-urlencoded')

self._set_body(querystr)

else:

self._set_url(self.url+ ('&' if '?' in self.urlelse '?')+ querystr)

# 关键函数 _urlencode

def _urlencode(seq, enc):

values= [(to_bytes(k, enc), to_bytes(v, enc))

for k, vsin seq

for vin (vsif is_listlike(vs)else [vs])]

return urlencode(values, doseq=1)

分析过程如下:

1

2

3

4

5

6

7

8# 第一步:items = formdata.items() if isinstance(formdata, dict) else formdata

# 第一步结果:经过items()方法执行后,原始的dict格式变成如下列表形式:

dict_items([('func','nextPage'), ('Field', {'size':'10','pageIdx':99})])

# 第二步:再经过后面的 _urlencode方法将items转换成如下:

[(b'func', b'nextPage'), (b'Field', b'size'), (b'Field', b'pageIdx')]

# 可以看到就是在调用 _urlencode方法的时候出现了问题,上面的方法执行过后,会使字典形式的数据只保留了keys(value是字典的情况下,只保留了value字典中的key).

解决方案:就是将字典当成普通的字符串,然后编码(转换成bytes),进行传输,到达服务器端之后,服务器会反过来进行解码,得到这个字典字符串。然后服务器按照Dict进行解析。

拓展:对于其他特殊类型的数据,都按照这种方式打包成字符串进行传递。

4. 补充1 ——参数类型

formdata的 参数值 必须是unicode , str 或者 bytes object,不能是整数。

案例:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38yield FormRequest(

headers= unicornHeader,

# formdata 的参数必须是字符串

formdata={'rank':10,'category': productDetailInfo['topCategory']},

method= 'GET',

meta= {'productDetailInfo': productDetailInfo},

callback= self.amztrackerSale,

errback= self.error,# 本项目中这里触发errback占绝大多数

dont_filter= True,# 按理来说是不需要加此参数的

)

# 提示如下ERROR:

Traceback (most recent call last):

File "E:Minicondalibsite-packagesscrapyutilsdefer.py", line102,in iter_errback

yield next(it)

File "E:Minicondalibsite-packagesscrapyspidermiddlewaresoffsite.py", line29,in process_spider_output

for xin result:

File "E:Minicondalibsite-packagesscrapyspidermiddlewaresreferer.py", line339,in

return (_set_referer(r)for rin resultor ())

File "E:Minicondalibsite-packagesscrapyspidermiddlewaresurllength.py", line37,in

return (rfor rin resultor ()if _filter(r))

File "E:Minicondalibsite-packagesscrapyspidermiddlewaresdepth.py", line58,in

return (rfor rin resultor ()if _filter(r))

File "E:PyCharmCodecategorySelectorAmazon1categorySelectorAmazon1spiderscategorySelectorAmazon1Clawer.py", line224,in parseProductDetail

dont_filter= True,

File "E:Minicondalibsite-packagesscrapyhttprequestform.py", line31,in __init__

querystr= _urlencode(items,self.encoding)

File "E:Minicondalibsite-packagesscrapyhttprequestform.py", line66,in _urlencode

for k, vsin seq

File "E:Minicondalibsite-packagesscrapyhttprequestform.py", line67,in

for vin (vsif is_listlike(vs)else [vs])]

File "E:Minicondalibsite-packagesscrapyutilspython.py", line117,in to_bytes

'object, got %s' % type(text).__name__)

TypeError: to_bytes must receive aunicode,str or bytesobject, gotint

# 正确写法:

formdata= {'rank':str(productDetailInfo['topRank']),'category': productDetailInfo['topCategory']},

原理部分(源代码):

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21# 第一阶段: 字典分解为items

if formdata:

items= formdata.items()if isinstance(formdata,dict)else formdata

querystr= _urlencode(items,self.encoding)

# 第二阶段: 对value,调用 to_bytes 编码

def _urlencode(seq, enc):

values= [(to_bytes(k, enc), to_bytes(v, enc))

for k, vsin seq

for vin (vsif is_listlike(vs)else [vs])]

return urlencode(values, doseq=1)

# 第三阶段: 执行 to_bytes ,参数要求是bytes, str

def to_bytes(text, encoding=None, errors='strict'):

"""Return the binary representation of `text`. If `text`

is already a bytes object, return it as-is."""

if isinstance(text, bytes):

return text

if not isinstance(text, six.string_types):

raise TypeError('to_bytes must receive a unicode, str or bytes '

'object, got %s' % type(text).__name__)

5. 补充2 ——参数为中文

formdata的 参数值 必须是unicode , str 或者 bytes object,不能是整数。

以1688网站搜索产品为案例:

搜索信息如下(搜索关键词为:动漫周边):

216598401_4_20210301114730521.jpg

可以看到 动漫周边 == %B6%AF%C2%FE%D6%DC%B1%DF

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28# scrapy中这个请求的构造如下

# python3 所有的字符串都是unicode

unicornHeaders= {

':authority':'s.1688.com',

}

# python3 所有的字符串都是unicode

# 动漫周边 tobyte为:%B6%AF%C2%FE%D6%DC%B1%DF

formatStr= "动漫周边".encode('gbk')

print(f"formatStr = {formatStr}")

yield FormRequest(

headers= unicornHeaders,

formdata= {'keywords': formatStr,'n':'y','spm':'a260k.635.1998096057.d1'},

method= 'GET',

meta={},

callback= self.parseCategoryPage,

errback= self.error,# 本项目中这里触发errback占绝大多数

dont_filter= True,# 按理来说是不需要加此参数的

)

# 日志如下:

formatStr= b'xb6xafxc2xfexd6xdcxb1xdf'

2017-11-16 15:11:02 [scrapy.downloadermiddlewares.redirect] DEBUG: Redirecting (302) to from

以上这篇scrapy爬虫:scrapy.FormRequest中formdata参数详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

最后

以上就是缥缈鞋垫为你收集整理的php spider 参数详解,scrapy爬虫:scrapy.FormRequest中formdata参数详解的全部内容,希望文章能够帮你解决php spider 参数详解,scrapy爬虫:scrapy.FormRequest中formdata参数详解所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(23)

评论列表共有 0 条评论

立即
投稿
返回
顶部