我是靠谱客的博主 安静面包,最近开发中收集的这篇文章主要介绍beautifulsoup爬取网页中的表格_Python 爬虫基础教程——BeautifulSoup抓取入门,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

7a163f628dcb6f92f6ca1a8ed1547c0f.png

点击上方蓝色文字关注我们吧

c95f9395545b9fe685067491eb7ff18f.png

有你想要的精彩

c496e5286e9f2d5e053b1f69aa1c2c41.png

作者 | 東不归 出品 | Python知识学堂

大家好,上篇推文介绍了爬虫方面需要注意的地方、使用vscode开发环境的时候会遇到的问题以及使用正则表达式的方式爬取页面信息,本篇内容主要是介绍BeautifulSoup模块的使用教程。

BeautifulSoup介紹

引用官方的解释:

Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.

简单来说Beautiful Soup是python的一个库,是一个可以从网页抓取数据的利器。

官方文档:

https://beautifulsoup.readthedocs.io/zh_CN/v4.4.0/

BeautifulSoup安裝

pip install beautifulsoup4

pip install beautifulsoup4

-i http://pypi.douban.com/simple/

--trusted-host pypi.douban.com

顺便说一句:我使用的开发工具还是vscode,不清楚的看一下之前的推文。

BeautifulSoup解析器

cd9f1fd57199788089488aa93e25a5d4.png

html.parse

html.parse 是内置的不需要安装的

import requestsfrom bs4 import BeautifulSoup
url='https://www.baidu.com'
response=requests.get(url)
response.encoding = 'utf-8'
soup = BeautifulSoup(response.text, 'html.parser')
print(soup.prettify())

结果

c92ae09ed19da948fb9a2fde0e85d62b.png

lxml

lxml 是需要安装 pip install lxml

import requestsfrom bs4 import BeautifulSoup
url='https://www.baidu.com'
response=requests.get(url)
response.encoding = 'utf-8'
soup = BeautifulSoup(response.text, 'lxml')
print(soup)

结果

1e7c3b38dbc34800aca8b9b8fd2e5715.png

lxml-xml/xml

lxml-xml/Xm是需要安装的 pip install lxml

import requestsfrom bs4 import BeautifulSoup
url='https://www.baidu.com'
response=requests.get(url)
response.encoding = 'utf-8'
soup = BeautifulSoup(response.text, 'xml')
print(soup)

结果

bc2a89f015ef253c5b184987da718c93.png

html5lib

html5lib 是需要安装的  pip install html5lib

import requestsfrom bs4 import BeautifulSoup

最后

以上就是安静面包为你收集整理的beautifulsoup爬取网页中的表格_Python 爬虫基础教程——BeautifulSoup抓取入门的全部内容,希望文章能够帮你解决beautifulsoup爬取网页中的表格_Python 爬虫基础教程——BeautifulSoup抓取入门所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(31)

评论列表共有 0 条评论

立即
投稿
返回
顶部