概述
监控到业务异常,kafka异常
查看kafka日志,发现大量错误日志:
ERROR Error while accepting connection (kafka.network.Acceptor)
java.io.IOException: 打开的文件过多
lsof -p kafka-pid 看有上万个文件句柄
使用自写的删除topic工具,删除一部分历史topic后,重启kafka,问题解决。之后继续删除topic,文件句柄降到2000。
1.运维规范:kafka历史topic定时清理,可配置job
最后
以上就是独特小蘑菇为你收集整理的kafka报错打开文件数过多导致kafka关闭的全部内容,希望文章能够帮你解决kafka报错打开文件数过多导致kafka关闭所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复