我是靠谱客的博主 仁爱银耳汤,这篇文章主要介绍配置Spark history server,现在分享给大家,希望可以做个参考。

问题描述:启动sbin/start-history-server.sh,jps下无historyserver进程,查看日志,显示如下错误。

原因分析:

1)查看$SPARK_HOME/conf,发现未配置spark-default.conf;

2)将spark.fs.history.logDirectory配置到conf/spark-defaults.conf目录里,发现并不起作用


解决方法:

1)配置$SPARK-HOME/conf/spark-defaults.conf

[hadoop@Master conf]$ cpspark-defaults.conf.template spark-defaults.conf

[hadoop@Master conf]$ vispark-defaults.conf

添加以下相关参数。

spark.eventLog.enabled           true

spark.eventLog.dir               hdfs://Master:9000/user/hadoop/sparkhistorylogs

spark.history.ui.port              18080

spark.history.fs.logDirectory      hdfs://Master:9000/user/hadoop/sparkhistorylogs

2)在hdfs创建spark logs存储目录。

[hadoop@Master conf]$ hdfs dfs –mkdir/user/hadoop/sparkhistorylogs

3)启动spark historyserver 需要指定logs所在的hdfs路径。

[hadoop@Master spark-1.6.0-bin-hadoop2.6]$sbin/start-history-server.sh

4)查看结果

查看History server webUI

执行一个spark job

查看Master

查看History Server


最后

以上就是仁爱银耳汤最近收集整理的关于配置Spark history server的全部内容,更多相关配置Spark内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(125)

评论列表共有 0 条评论

立即
投稿
返回
顶部