概述
bin/spark-submit -h -v 3.0.1
参数名 | 参数说明 |
--master | master 地址(提交任务到哪里执行) 例: spark://host:port yarn local。 |
--deploy-mode | 在本地 (client) 启动 driver 或 在 cluster 上启动。默认是 client |
--class | 应用程序的主类 。 |
--name | 应用程序的名称。 |
--jars | 用逗号分隔的本地jar包,设置后这些jar将包含在driver和executor的classpath下。 |
--packages | 包含在driver 和executor 的 classpath 中的 jar 的 maven 坐标。 |
--exclude-packages | 了避免冲突 而指定不包含的 package |
--repositories | 远程 repository。 |
--conf PROP=VALUE | 指定 spark 配置属性的值。 例如 --conf spark.executor.extraJavaOptions="-XX:MaxPermSize=256m" |
--properties-file | 加载的配置文件,默认为 conf/spark-defaults.conf |
--driver-memory | Driver内存,默认 1G |
--driver-java-options | 传给 driver 的额外的 Java 选项。 |
--driver-library-path | 传给 driver 的额外的库路径。 |
--driver-class-path | 传给 driver 的额外的类路径。 |
--driver-cores | Driver 的核数,默认是1。在 yarn 或者 standalone 下使用。 |
--executor-memory | 每个 executor 的内存,默认是1G |
--total-executor-cores | executor 总核数。仅仅在 mesos 或者 standalone 下使用。 |
--num-executors | 启动的 executor 数量。默认为2。在 yarn / Kubernetes下使用。 |
--executor-core | 每个 executor 的核数。在yarn或者standalone下使用。 |
测试案例:
bin/spark-submit
--master yarn
--deploy-mode cluster
--class cn.test.mySparkPi
--driver-memory 2G
--driver-cores 2
--num-executors 2
--executor-memory 4G
--executor-core 2
--/opt/data/jars/pi.jar
最后
以上就是快乐唇膏为你收集整理的spark on yarn 提交参数的全部内容,希望文章能够帮你解决spark on yarn 提交参数所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复