概述
前言
用爬虫爬取的大量数据怎么保存到本地,本文以保存到Excel为例。
1.先导入爬虫所需的库
说明一下,引入xlsxwriter这个库,主要是为了将数据写入Excel;我这里用到的是xpath,当然了你也可以选择bs4或者正则。
2.选取你要爬取的url地址,将地址赋值给一个变量url,别忘了添加一个请求头信息’User-Agent’。
3.对想要爬取的页面进行解析
4.接着利用xpath方法,提起页面源代码里面想要的信息
需要注意的是,这里在python3中用print方法输出的内容是一个隐藏的对象,后面再讲解用方法把对象转成类似字符串的形式。
5.接下来就用到xlsxwriter 这个模块的功能:
xlsxwriter.Workbook(‘jianshu.xlsx’)
就是创建一个excel表名的意思;
work_book.add_worksheet()
是我们熟悉的建立一个sheet,括号中不写名字,默认为’sheet’;
work_sheet.wri
最后
以上就是潇洒海燕为你收集整理的python 用爬虫爬取的大量数据怎么保存到本地的全部内容,希望文章能够帮你解决python 用爬虫爬取的大量数据怎么保存到本地所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复