我是靠谱客的博主 风趣招牌,最近开发中收集的这篇文章主要介绍爬虫之url爬取,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

1、访问链接,获得链接网页源码
难点:反爬虫
可以用headers和proxy解决
2、识别网页中的链接
链接形式不统一,有绝对链接和相对链接,urljoin()
3、链接储存
分为两部分,第一部分是进行识别链接是否已经被访问,第二部分进行储存所有链接
(1): 运用crawl_queue堆栈,将未被访问的链接进栈,在crawl_queue非空时,出栈一个url,访问此url并获取新的url,以此进行循环
(2):将所有url储存到link_save字典中

测试CPU:i5-6300hq;RAM: 8GB
测试链接:https://zhuanlan.zhihu.com/p/35324806
测试结果:爬取183个url
测试时间:386.641009527s

代码:

from urllib.request import urlopen, URLError, HTTPError, Request, build_opener, ProxyHandler

from urllib.parse import urlparse,quote,urljoin

import re

from datetime import datetime

import time

 

#第一个参数是要爬取的url,第二个参数是代理,第三个参数是重试次数

def download(url, proxy=None, num_retries=2):

    print('Downloading', url)

    headers = {

        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36'}

    request = Request(url, headers=headers)        #加入headers进行浏览器模拟

    opener = build_opener()

    if proxy:

        opener.add_handler(ProxyHandler({urlparse(url).scheme : proxy}))    #urlparse(url).scheme是url的scheme,即协议,如http;proxy是代理服务器IP+Port
                                #ProxyHandler({urlparse(url).scheme : proxy}) 是建一个Handler处理器对象,参数是一个字典类型,包括代理类型和代理服务器IP+Port
                                #add_handler(ProxyHandler({urlparse(url).scheme : proxy}))是使用代理

    try:

        html = opener.open(request).read().decode()                #访问、读取、解码url

    except (URLError, HTTPError, UnicodeDecodeError, UnicodeEncodeError) as e:            #出现访问url错误时,捕获括号里的错误储存到e里

        print('Download error:', e.reason)

        html = None

        if num_retries > 0:

            if hasattr(e, 'code') and 500 <= e.code < 600:        #hasattr() 函数用于判断对象是否包含对应的属性。
                                                                                                                #HTTPError实例产生后会有一个code属性,这就是是服务器发送的相关错误号。
                                                                                                                #x and y 的值只可能是x或y. x为真就是y, x为假就是x; x and y 的值只可能是x或y. x为真就是y, x为假就是x
                return download(url, num_retries - 1)            #递归

    return html

 

 

def get_link(html):

    webpage_regex = re.compile('<a[^>]+href=["'](.*?)["']', re.IGNORECASE)    #'<a[^>]+href=["'](.*?)["']'表示匹配模式

    try:

        return webpage_regex.findall(html)

    except TypeError:

        return []

 

 

# 限速

class Throttle:

    def __init__(self, delay):

        self.delay = delay

        self.domains = {}

 

    def wait(self, url):

        domain = urlparse(url).netloc                         #urlparse(url).netloc,url域名

        last_accessed = self.domains.get(domain)

 

        if self.delay > 0 and last_accessed is not None:

            sleep_secs = self.delay - (datetime.now() - last_accessed).seconds

            if sleep_secs > 0:

                time.sleep(sleep_secs)                           # time sleep() 函数推迟调用线程的运行,可通过参数secs指秒数,表示进程挂起的时间。 

        self.domains[domain] = datetime.now()

 

# 爬取链接,保存到link_save

#第一个参数是要爬取的url,第二个参数是匹配链接的正则表达式,第三个参数是爬取的深度

def link_crawler(seed_url, link_regex, max_depth=2):

    crawl_queue = [seed_url]

    link_save = {seed_url:0}

    throttle = Throttle(2)

    while crawl_queue:

        url = crawl_queue.pop()        #弹出没有访问过的网站,进行访问

        depth = link_save[url]

        throttle.wait(url)

        html = download(url)

        if depth <= max_depth:

            for link in get_link(html):

                # 相对链接使用这行代码合并绝对链接

                 #link = urljoin(seed_url, link)

                if re.match(link_regex, link) and link not in link_save.keys():        #判断爬取的link的开头是否为link_regex,并且判断爬取的link是否已经保存

                    crawl_queue.append(link)

                    link_save[link] = depth + 1

    return link_save

 

if __name__ == "__main__":

    result = link_crawler("http://www.xxxx.com/", "http://.*?")

    with open('xxxx_com.txt', 'w') as f:

        for i in result.keys():

            f.writelines(f'{i}n')

 

 

正则表达式模式:
.    匹配任意字符,除了换行符,当re.DOTALL标记被指定时,则可以匹配包括换行符的任意字符
[...]    用来匹配一组字符,如[amk]将匹配对象中存在的‘a’ 'm'  'k'都匹配出来
[^...]    匹配不在[]中的字符
a|b    匹配a或b
[a-z]    匹配任何小写字母
[A-Z]    匹配任何大写字母
d    匹配一个数字字符
["']    匹配单双引号

最后

以上就是风趣招牌为你收集整理的爬虫之url爬取的全部内容,希望文章能够帮你解决爬虫之url爬取所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(47)

评论列表共有 0 条评论

立即
投稿
返回
顶部