我是靠谱客的博主 专注睫毛,这篇文章主要介绍python爬虫beautifulsoup爬取小说_【爬虫实例1】python3下使用beautifulsoup爬取数据并存储txt文件-Go语言中文社区...,现在分享给大家,希望可以做个参考。

1:运行环境:

python: 3.7.0

系统:Windows

IDE:pycharm 2017

2:需要安装的库:

requests和beautifulsoup

3:完整代码:

# coding:utf-8

import requests

from bs4 import BeautifulSoup

import bs4

def gethtml(url,headers):

response = requests.get(url,headers=headers)

try:

if response.status_code == 200:

print('抓取成功网页长度:',len(response.text))

response.encoding = 'utf-8'

return response.text

except BaseException as e:

print('抓取出现错误:',e)

def getsoup(html):

soup = BeautifulSoup(html,'lxml')

for tr in soup.find('tbody').children: #生成tr的tag列表

if isinstance(tr,bs4.element.Tag):

td = tr('td') #循环获取所有tr标签下的td标签,并生成tag列表

t = [td[0].string, td[1].string,' ',td[2].string,' ',td[3].string] #提取前四td字符串

list.append(t)

def write_data(list):

for i in list: #循环提取list中的元素

with open('daxue.txt','a') as data:

print(i,file=data) #写入文件

if __name__ == '__main__':

list = []

url = 'http://www.zuihaodaxue.com/shengyuanzhiliangpaiming2018.html'

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'

}

html = gethtml(url,headers)

getsoup(html)

write_data(list)

4:运行结果:

注:这只是一个学习的demo,写的不是很精美,还有很多优化的地方,先弄懂原理然后慢慢磨练吧。

最后

以上就是专注睫毛最近收集整理的关于python爬虫beautifulsoup爬取小说_【爬虫实例1】python3下使用beautifulsoup爬取数据并存储txt文件-Go语言中文社区...的全部内容,更多相关python爬虫beautifulsoup爬取小说_【爬虫实例1】python3下使用beautifulsoup爬取数据并存储txt文件-Go语言中文社区内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(105)

评论列表共有 0 条评论

立即
投稿
返回
顶部