我是靠谱客的博主 朴素棉花糖,最近开发中收集的这篇文章主要介绍python 提升效率_python如何提高爬虫效率,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

任务背景是需要从一个linux服务器上下载文件,我拥有该服务器的访问权限但仅限于读。

目前的解决方法是我把所有需要下载的数据地址都保存在了本地的文件中,一行一条数据地址,通过paramiko包连接服务器然后使用多线程的方式进行爬取。每个线程启动时向其传入一个下载地址列表,因为每个线程的下载地址列表都不重复,因此不需要考虑线程之间的通信。详细代码如下:# filename是存储在本地的地址列表文件,n是最大线程数

def download(filename, n):

files = open(filename, 'rb').readlines()

numbers = range(n)

stop = len(files) / len(numbers)

def thread_download(n):

sftp = login()

directory = files[n*stop : (n+1)*stop]

for line in directory:

# 该函数的功能是将服务器中的文件下载至本地,第一个参数是具体地址,第二个参数是连接句柄

download_from_server(line.strip(), sftp)

threads = []

for i in numbers:

threads.append(threading.Thread(target=thread_download, args=(i, )))

threads[i].start()

time.sleep(0.1) # 暂停0.1s是为了防止并发数太多

for i in numbers:

threads[i].join()

现在有两个问题:

(1)我一般把n设置为300,程序启动时下载速度很快,能够达到每分钟100多份文件,虽然也能看到一些线程崩溃,但数量不多;但是大概10分钟后程序下载速度只有20多份文件,是因为很多线程已经挂掉了嘛,还是线程之间通过同一个账户访问存在阻塞?为什么速度下降幅度这么大?

(2)除了使用多台机器和提高网速外,还能考虑什么方式提高爬虫效率?

最后

以上就是朴素棉花糖为你收集整理的python 提升效率_python如何提高爬虫效率的全部内容,希望文章能够帮你解决python 提升效率_python如何提高爬虫效率所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(31)

评论列表共有 0 条评论

立即
投稿
返回
顶部