我是靠谱客的博主 想人陪寒风,最近开发中收集的这篇文章主要介绍spark history server集群配置与使用(解决执行spark任务之后没有显示的问题),觉得挺不错的,现在分享给大家,希望可以做个参考。

概述


在你的spark路径的conf文件中,cp拷贝spark-defaults.conf.template为spark-defaults.conf

并在文件后面加上

spark.eventLog.enabled           true
spark.eventLog.dir               hdfs://master:9000/history
spark.eventLog.compress          true


将配置分发到其他子节点我使用的是rsync

rsync sparkconf路径/spark-defaults.conf 子节点ip: sparkconf路径/spark-defaults.conf


启动spark history server,在主节点上执行

spark路径/sbin/start-history-server.sh hdfs://master:9000/history

!!!后面接的那个路径一定要和在conf中设置的一样,如果不接这个参数,默认值是本地的/tmp/spark-events

最后

以上就是想人陪寒风为你收集整理的spark history server集群配置与使用(解决执行spark任务之后没有显示的问题)的全部内容,希望文章能够帮你解决spark history server集群配置与使用(解决执行spark任务之后没有显示的问题)所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(52)

评论列表共有 0 条评论

立即
投稿
返回
顶部