概述
为什么80%的码农都做不了架构师?>>>
使用 libtorrent 的python绑定库实现一个dht网络爬虫,抓取dht网络中的磁力链接。
dht 网络简介
p2p网络
在P2P网络中,通过种子文件下载资源时,要知道资源在P2P网络中哪些计算机中,这些传输资源的计算机称作peer。在传统的P2P网络中,使用tracker服务器跟踪资源的peer。要下载资源,首先需要取得这些peer。
dht网络
tracker服务器面临一些版权和法律问题。于是出现了DHT,它把tracker上的资源peer信息分散到了整个网络中。dht网络是由分布 式节点构成,节点(node)是实现了DHT协议的p2p客户端。P2P客户端程序既是peer也是node。DHT网络有多种算法,常用的有 Kademlia。
dht网络下载
P2P客户端使用种子文件下载资源时,如果没有tracker服务器,它就向DHT网络查询资源的peer列表, 然后从peer下载资源。
Magnet是磁力链接
资源的标识在DHT网络中称为infohash,是一个通过sha1算法得到的20字节长的字符串。infohash是使用种子文件的文件描述信息 计算得到。磁力链接是把infohash编码成16进制字符串得到。P2P客户端使用磁力链接,下载资源的种子文件,然后根据种子文件下载资源。
Kademlia 算法
Kademlia是DHT网络的一种实现, 具体的算法参见:DHT协议
KRPC 协议
KRPC 是节点之间的交互协议,使用UDP来传送。
包括4种请求:ping,find_node,get_peer,announce_peer。其中get_peer和announce_peer是节点间查询资源的主要消息。
dht 爬虫原理
主要的思路就是伪装为p2p客户端,加入dht网络,收集dht网络中的get_peer和announce_peer消息,这些消息是其他node发送给伪装的p2p客户端的udp消息。
本文dht爬虫的实现
爬虫运行环境
linux 系统
python 2.7
libtorrent 库的python绑定
twisted 网络库
防火墙开启固定的udp和tcp端口
libtorrent 库的介绍
libtorrent库是p2p下载的客户端库,有丰富的接口,可以用来开发下载p2p网络上的资源。它有python的绑定库,本爬虫就是使用它的python库开发的。
在libtorrent中有几个概念需要解释下。 session 相当于p2p客户端,session开启一个tcp和一个udp端口,用来与其他p2p客户端交换数据。可以在一个进程内定义多个session,也就是多个p2p客户端,来加快收集速度。
alert是libtorrent中用来收集各种消息的队列,每个session都有一个自己的alert消息队列。KRPC协议的get_peer和announce_peer消息也是从这个队列中获取,就是用这两个消息收集磁力链接的。
主要实现代码
爬虫实现的主要代码比较简单
# 事件通知处理函数
def _handle_alerts(self, session, alerts):
while len(alerts):
alert = alerts.pop()
# 获取dht_announce_alert和dht_get_peer_alert消息
# 从这两消息收集磁力链接
if isinstance(alert, lt.add_torrent_alert):
alert.handle.set_upload_limit(self._torrent_upload_limit)
alert.handle.set_download_limit(self._torrent_download_limit)
elif isinstance(alert, lt.dht_announce_alert):
info_hash = alert.info_hash.to_string().encode('hex')
if info_hash in self._meta_list:
self._meta_list[info_hash] += 1
else:
self._meta_list[info_hash] = 1
self._current_meta_count += 1
elif isinstance(alert, lt.dht_get_peers_alert):
info_hash = alert.info_hash.to_string().encode('hex')
if info_hash in self._meta_list:
self._meta_list[info_hash] += 1
else:
self._infohash_queue_from_getpeers.append(info_hash)
self._meta_list[info_hash] = 1
self._current_meta_count += 1
def start_work(self):
'''主工作循环,检查消息,显示状态'''
# 清理屏幕
begin_time = time.time()
show_interval = self._delay_interval
while True:
for session in self._sessions:
session.post_torrent_updates()
# 从队列中获取信息
self._handle_alerts(session, session.pop_alerts())
time.sleep(self._sleep_time)
if show_interval > 0:
show_interval -= 1
continue
show_interval = self._delay_interval
# 统计信息显示
show_content = ['torrents:']
interval = time.time() - begin_time
show_content.append(' pid: %s' % os.getpid())
show_content.append(' time: %s' %
time.strftime('%Y-%m-%d %H:%M:%S'))
show_content.append(' run time: %s' % self._get_runtime(interval))
show_content.append(' start port: %d' % self._start_port)
show_content.append(' collect session num: %d' %
len(self._sessions))
show_content.append(' info hash nums from get peers: %d' %
len(self._infohash_queue_from_getpeers))
show_content.append(' torrent collection rate: %f /minute' %
(self._current_meta_count * 60 / interval))
show_content.append(' current torrent count: %d' %
self._current_meta_count)
show_content.append(' total torrent count: %d' %
len(self._meta_list))
show_content.append('n')
# 存储运行状态到文件
try:
with open(self._stat_file, 'wb') as f:
f.write('n'.join(show_content))
with open(self._result_file, 'wb') as f:
json.dump(self._meta_list, f)
except Exception as err:
pass
# 测试是否到达退出时间
if interval >= self._exit_time:
# stop
break
# 每天结束备份结果文件
self._backup_result()
# 销毁p2p客户端
for session in self._sessions:
torrents = session.get_torrents()
for torrent in torrents:
session.remove_torrent(torrent)
运行效率
在我的一台512M内存,单cpu机器上。爬虫刚开始运行稍慢,运行几分钟后收集速度稳定在 180个每分钟,1小时采集10000左右。
运行状态
run times: 12
torrents:
pid: 11480 time: 2014-08-18 22:45:01
run time: day: 0, hour: 0, minute: 12, second: 25
start port: 32900
collect session num: 20
info hash nums from get peers: 2222
torrent collection rate: 179.098480 /minute
current torrent count: 2224
total torrent count: 58037
爬虫完整代码
完整的代码参见:https://github.com/blueskyz/DHTCrawler
还包括一个基于twisted的监控进程,用来查看爬虫状态,在爬虫进程退出后重新启动。
原文链接:python开发的 dht网络爬虫
转载于:https://my.oschina.net/hopez/blog/305538
最后
以上就是机灵抽屉为你收集整理的python开发的 dht网络爬虫的全部内容,希望文章能够帮你解决python开发的 dht网络爬虫所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复