我是靠谱客的博主 怕孤独盼望,最近开发中收集的这篇文章主要介绍python cookies 爬虫_Python爬虫cookies,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

1. 发送请求添加自定义的cookie信息

方法一使用add_dict_to_cookiejar函数 添加cookies

方法二使用RequestsCookieJar对象,然后使用update函数更新cookies

方法一不能同时设置path,domain等参数。方法二可以同时设置

使用request.session发送请求

百度cooikes如下

百度cookies

核心代码

方法一

import requests

# 使用requests.session返回保持会话的对象

s = requests.session()

# cookie字典

cookie_dict = {

"cookie_name_1": "cookie_value_1",

"cookie_name_2": "cookie_value_2",

"cookie_name_3": "cookie_value_3"

}

# 使用add_dict_to_cookiejar

requests.utils.add_dict_to_cookiejar(s.cookies, cookie_dict)

方法二

import requests

from requests.cookies import RequestsCookieJar

# 使用requests.session返回保持会话的对象

s = requests.session()

# 使用对象方式设置, 使用RequestsCookieJar

c = RequestsCookieJar()

# 设置cookies

c.set('cookie_name_1', 'cookie_value_1', path='/', domain='.xxx.com')

c.set('cookie_name'_2, 'cookie_value_2', path='/', domain='.xxx.com')

s.cookies.update(c)

完整代码

方法一

import requests

# cookie字典

cookie_dict = {"uid": "1", "exp": "2", "server_time": "3"}

# 使用requests.session返回保持会话的对象

s = requests.session()

# 使用add_dict_to_cookiejar

requests.utils.add_dict_to_cookiejar(s.cookies, cookie_dict)

print(s.cookies.get_dict())

# {'exp': '2', 'server_time': '3', 'uid': '1'}

# get请求

url = "http://www.xxx.com"

s.get(url=url)

# post请求

# url = "https://www.xxx.com"

# data = {'pageIndex': 0, 'pageSize': 8}

# s.post(url=url, data=data, verify=False)

方法二

import requests

from requests.cookies import RequestsCookieJar

# 使用requests.session返回保持会话的对象

s = requests.session()

# 使用对象方式设置, 使用RequestsCookieJar

c = RequestsCookieJar()

# 设置cookies

# c.set('cookie_name', 'cookie_value')

# c.set('cookie_name', 'cookie_value', path='/', domain='.xxx.com')

c.set('exp', '2')

c.set('server_time', '3')

c.set('uid', '1')

# 使用update函数

s.cookies.update(c)

print(s.cookies.get_dict())

# {'exp': '2', 'server_time': '3', 'uid': '1'}

# get请求

url = "http://www.xxx.com"

s.get(url=url)

# post请求

# url = "https://www.xxx.com"

# data = {'pageIndex': 0, 'pageSize': 8}

# s.post(url=url, data=data, verify=False)

2. 获取响应信息中的cookie信息

使用request.cookies获取RequestCookieJar对象

使用dict_from_cookiejar转换为字典

import requests

# get请求

url = "http://www.baidu.com"

response = requests.get(url=url)

cookies_jar = response.cookies

print(cookies_jar)

# ]>

cookies_dict = requests.utils.dict_from_cookiejar(cookies_jar)

print(cookies_dict)

# {'BDORZ': '27315'}

最后

以上就是怕孤独盼望为你收集整理的python cookies 爬虫_Python爬虫cookies的全部内容,希望文章能够帮你解决python cookies 爬虫_Python爬虫cookies所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(60)

评论列表共有 0 条评论

立即
投稿
返回
顶部