我是靠谱客的博主 完美大地,最近开发中收集的这篇文章主要介绍Python多进程/多线程 multiprocessing apply_async报错“left > 0” AssertionError,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

Python multiprocessing apply_async报错“left > 0” AssertionError

我使用的python版本:python3.7.3。

在处理一份较大的数据文件(17G)时,无论使用多进程或多线程均报此错误。在任务管理器里查看内存是完全足够的。查了很久才找到原因。

实现多进程/多线程时调用的类:
进程池:
from multiprocessing import Pool
线程池:
from multiprocessing.pool import ThreadPool

报错如下:

Process SpawnPoolWorker-4:
Traceback (most recent call last):
File"C:ProgramDataAnaconda3libmultiprocessingprocess.py", line 297, in _bootstrap
self.run()
File"C:ProgramDataAnaconda3libmultiprocessingprocess.py", line 99, in run
self._target(*self._args, **self._kwargs)
File"C:ProgramDataAnaconda3libmultiprocessingpool.py", line 110, in worker
task = get()
File"C:ProgramDataAnaconda3libmultiprocessingqueues.py", line 352, in get
res = self._reader.recv_bytes()
File"C:ProgramDataAnaconda3libmultiprocessingconnection.py", line 216, in recv_bytes
buf = self._recv_bytes(maxlength)
File"C:ProgramDataAnaconda3libmultiprocessingconnection.py", line 318, in _recv_bytes
return self._get_more_data(ov, maxsize)
File"C:ProgramDataAnaconda3libmultiprocessingconnection.py", line 337, in _get_more_data
assert left > 0
AssertionError

原因:python C的核心代码会阻止大于2GB的数据响应正常返回主线程/进程。

(python3.8中是否对此bug更新存疑)

StackOverflow上的回答:

There is a bug in Python C core code that prevents data responses bigger than 2GB return correctly to the main thread. you need to either split the data into smaller chunks as suggested in the previous answer or not use multiprocessing for this function.(UPDATE: the fix is present in python 3.8.0+)

StackOverflow上的问题描述和回答

我的解决方法

待处理的数据比较大,因为内存限制,能开的进程也不多,就手动运行多个进程了,这样也就不存在子进程的问题了。
有时间可以试试升到python3.8之后问题是否解决。

最后

以上就是完美大地为你收集整理的Python多进程/多线程 multiprocessing apply_async报错“left > 0” AssertionError的全部内容,希望文章能够帮你解决Python多进程/多线程 multiprocessing apply_async报错“left > 0” AssertionError所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(31)

评论列表共有 0 条评论

立即
投稿
返回
顶部