我是靠谱客的博主 大力纸鹤,这篇文章主要介绍python如何实现网络爬虫,现在分享给大家,希望可以做个参考。

python实现网络爬虫的方法:

第一步:爬取

使用request库中的get方法,请求url的网页内容

编写代码

复制代码
1
2
[root@localhost demo]# touch demo.py [root@localhost demo]# vim demo.py
登录后复制
复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
#web爬虫学习 -- 分析 #获取页面信息 #输入:url #处理:request库函数获取页面信息,并将网页内容转换成为人能看懂的编码格式 #输出:爬取到的内容 import requests def getHTMLText(url): try: r = requests.get( url, timeout=30 ) r.raise_for_status() #如果状态码不是200,产生异常 r.encoding = 'utf-8' #字符编码格式改成 utf-8 return r.text except: #异常处理 return " error " url = "http://www.baidu.com" print( getHTMLText(url) )
登录后复制
复制代码
1
[root@localhost demo]# python3 demo.py
登录后复制

6387e49f8185b7d812adb77c9e7f119.png

第二步:分析

使用bs4库中BeautifulSoup类,生成一个对象。find()和find_all()方法可以遍历这个html文件,提取指定信息。

编写代码

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
[root@localhost demo]# touch demo1.py [root@localhost demo]# vim demo1.py #web爬虫学习 -- 分析 #获取页面信息 #输入:url #处理:request库获取页面信息,并从爬取到的内容中提取关键信息 #输出:打印输出提取到的关键信息 import requests from bs4 import BeautifulSoup import re def getHTMLText(url): try: r = requests.get( url, timeout=30 ) r.raise_for_status() #如果状态码不是200,产生异常 r.encoding = 'utf-8' #字符编码格式改成 utf-8 return r.text except: #异常处理 return " error " def findHTMLText(text): soup = BeautifulSoup( text, "html.parser" ) #返回BeautifulSoup对象 return soup.find_all(string=re.compile( '百度' )) #结合正则表达式,实现字符串片段匹配 url = "http://www.baidu.com" text = getHTMLText(url) #获取html文本内容 res = findHTMLText(text) #匹配结果 print(res) #打印输出
登录后复制
复制代码
1
[root@localhost demo]# python3 demo1.py
登录后复制

4c09a57891201d0e5fb214a6438b0ff.png

以上就是python如何实现网络爬虫的详细内容,更多请关注靠谱客其它相关文章!

最后

以上就是大力纸鹤最近收集整理的关于python如何实现网络爬虫的全部内容,更多相关python如何实现网络爬虫内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(96)

评论列表共有 0 条评论

立即
投稿
返回
顶部