我是靠谱客的博主 快乐唇膏,最近开发中收集的这篇文章主要介绍spark on yarn 提交参数,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

bin/spark-submit -h -v 3.0.1

  参数名               参数说明
--mastermaster 地址(提交任务到哪里执行) 例: spark://host:port   yarn   local。
--deploy-mode在本地 (client) 启动 driver 或 在 cluster 上启动。默认是 client 
--class应用程序的主类 。
--name应用程序的名称。
--jars  用逗号分隔的本地jar包,设置后这些jar将包含在driver和executor的classpath下。
--packages  包含在driver 和executor 的 classpath 中的 jar 的 maven 坐标。
--exclude-packages了避免冲突 而指定不包含的 package 
--repositories 远程 repository。
--conf  PROP=VALUE

指定 spark 配置属性的值。

例如  --conf spark.executor.extraJavaOptions="-XX:MaxPermSize=256m"

--properties-file加载的配置文件,默认为 conf/spark-defaults.conf
--driver-memory  Driver内存,默认 1G
--driver-java-options传给 driver 的额外的 Java 选项。
--driver-library-path传给 driver 的额外的库路径。
--driver-class-path传给 driver 的额外的类路径。
--driver-cores Driver 的核数,默认是1。在 yarn 或者 standalone 下使用。
--executor-memory每个 executor 的内存,默认是1G
--total-executor-cores executor 总核数。仅仅在 mesos 或者 standalone 下使用。
--num-executors启动的 executor 数量。默认为2。在 yarn / Kubernetes下使用。
--executor-core每个 executor 的核数。在yarn或者standalone下使用。

测试案例:

bin/spark-submit 
--master yarn 
--deploy-mode cluster 
--class cn.test.mySparkPi 
--driver-memory 2G 
--driver-cores 2 
--num-executors 2
--executor-memory 4G 
--executor-core 2 
--/opt/data/jars/pi.jar

最后

以上就是快乐唇膏为你收集整理的spark on yarn 提交参数的全部内容,希望文章能够帮你解决spark on yarn 提交参数所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(50)

评论列表共有 0 条评论

立即
投稿
返回
顶部