我是靠谱客的博主 专注睫毛,最近开发中收集的这篇文章主要介绍python爬虫beautifulsoup爬取小说_【爬虫实例1】python3下使用beautifulsoup爬取数据并存储txt文件-Go语言中文社区...,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

1:运行环境:

python: 3.7.0

系统:Windows

IDE:pycharm 2017

2:需要安装的库:

requests和beautifulsoup

3:完整代码:

# coding:utf-8

import requests

from bs4 import BeautifulSoup

import bs4

def gethtml(url,headers):

response = requests.get(url,headers=headers)

try:

if response.status_code == 200:

print('抓取成功网页长度:',len(response.text))

response.encoding = 'utf-8'

return response.text

except BaseException as e:

print('抓取出现错误:',e)

def getsoup(html):

soup = BeautifulSoup(html,'lxml')

for tr in soup.find('tbody').children: #生成tr的tag列表

if isinstance(tr,bs4.element.Tag):

td = tr('td') #循环获取所有tr标签下的td标签,并生成tag列表

t = [td[0].string, td[1].string,' ',td[2].string,' ',td[3].string] #提取前四td字符串

list.append(t)

def write_data(list):

for i in list: #循环提取list中的元素

with open('daxue.txt','a') as data:

print(i,file=data) #写入文件

if __name__ == '__main__':

list = []

url = 'http://www.zuihaodaxue.com/shengyuanzhiliangpaiming2018.html'

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'

}

html = gethtml(url,headers)

getsoup(html)

write_data(list)

4:运行结果:

注:这只是一个学习的demo,写的不是很精美,还有很多优化的地方,先弄懂原理然后慢慢磨练吧。

最后

以上就是专注睫毛为你收集整理的python爬虫beautifulsoup爬取小说_【爬虫实例1】python3下使用beautifulsoup爬取数据并存储txt文件-Go语言中文社区...的全部内容,希望文章能够帮你解决python爬虫beautifulsoup爬取小说_【爬虫实例1】python3下使用beautifulsoup爬取数据并存储txt文件-Go语言中文社区...所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(226)

评论列表共有 0 条评论

立即
投稿
返回
顶部