我是靠谱客的博主 快乐唇膏,这篇文章主要介绍spark on yarn 提交参数,现在分享给大家,希望可以做个参考。

bin/spark-submit -h -v 3.0.1

  参数名               参数说明
--mastermaster 地址(提交任务到哪里执行) 例: spark://host:port   yarn   local。
--deploy-mode在本地 (client) 启动 driver 或 在 cluster 上启动。默认是 client 
--class应用程序的主类 。
--name应用程序的名称。
--jars  用逗号分隔的本地jar包,设置后这些jar将包含在driver和executor的classpath下。
--packages  包含在driver 和executor 的 classpath 中的 jar 的 maven 坐标。
--exclude-packages了避免冲突 而指定不包含的 package 
--repositories 远程 repository。
--conf  PROP=VALUE

指定 spark 配置属性的值。

例如  --conf spark.executor.extraJavaOptions="-XX:MaxPermSize=256m"

--properties-file加载的配置文件,默认为 conf/spark-defaults.conf
--driver-memory  Driver内存,默认 1G
--driver-java-options传给 driver 的额外的 Java 选项。
--driver-library-path传给 driver 的额外的库路径。
--driver-class-path传给 driver 的额外的类路径。
--driver-cores Driver 的核数,默认是1。在 yarn 或者 standalone 下使用。
--executor-memory每个 executor 的内存,默认是1G
--total-executor-cores executor 总核数。仅仅在 mesos 或者 standalone 下使用。
--num-executors启动的 executor 数量。默认为2。在 yarn / Kubernetes下使用。
--executor-core每个 executor 的核数。在yarn或者standalone下使用。

测试案例:

bin/spark-submit 
--master yarn 
--deploy-mode cluster 
--class cn.test.mySparkPi 
--driver-memory 2G 
--driver-cores 2 
--num-executors 2
--executor-memory 4G 
--executor-core 2 
--/opt/data/jars/pi.jar

最后

以上就是快乐唇膏最近收集整理的关于spark on yarn 提交参数的全部内容,更多相关spark内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(118)

评论列表共有 0 条评论

立即
投稿
返回
顶部