概述
在配置filebeat抓取nginx日志到kafka的时候遇到个问题,无法将数据传输给kafka,虽然hosts指定了3个broker的ip,但是依然无效
最终通过尝试发现,虽然这边指定了broker的ip,但猜测还是会和zk通信并获取到其他broker的hostname(配置kafka的时候server.properties中listeners和advertised.listeners都是配置的hostname,且hostname是通过/etc/hosts绑定的,非真实域名可访问),而不是ip,所以filebeat所在的机器由于没有添加过hosts来解析,所以是无法访问kafka的
/etc/hosts 配置上对应的broker的hostname,问题解决
filebeat基本配置
filebeat.inputs:
- type: log
enabled: true
paths:
- /var/log/nginx/access.log
# ------------------------------ Kafka output ----------------------------------
output.kafka:
hosts: ["192.168.202.129:9092", "192.168.202.130:9092", "192.168.202.131:9092"]
topic: "filebeat"
codec.json:
pretty: false
# Optional protocol and basic auth credentials.
# protocol: "https"
# username: "elastic"
# password: "changeme"
最后
以上就是坦率冬瓜为你收集整理的filebeat 抓取数据无法上传到 kafka的全部内容,希望文章能够帮你解决filebeat 抓取数据无法上传到 kafka所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复