spark不支持python3.6
解决方式1
降低python版本
(1)卸载anaconda,参考博文:https://blog.csdn.net/u010916338/article/details/106108146
(2)带有python3.5的安装包下载地址:
链接:https://pan.baidu.com/s/17jkomEQhoc3EzdCH18SfKw
提取码:1t9a
(3)anaconda安装步骤,参考博文:https://blog.csdn.net/u010916338/article/details/106101438?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522158937965819724843303713%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=158937965819724843303713&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2blogfirst_rank_v2~rank_v25-2-106101438.nonecase&utm_term=anaconda
解决方式2
spark版本升级
笔者将spark2.1升级至spark2.4,未发现该bug
最后
以上就是专一西装最近收集整理的关于TypeError: namedtuple() missing 3 required keyword-only arguments: verbose, rename, and modulespark不支持python3.6解决方式1解决方式2的全部内容,更多相关TypeError:内容请搜索靠谱客的其他文章。
发表评论 取消回复