概述
这种方式只适用在服务器上提交spark-submit时读取本集群hive中的数据
val spark = SparkSession
.builder()
//项目名字,任意取
.appName("five")
//从hive中读取数据的关键配置
.enableHiveSupport()
//本地执行
.master("local[2]")
.getOrCreate()
之后就是很简单的
//如果使用的集群
spark.sql("use 自己主机名")
spark.table("表名")
简单示范一下
def main(args: Array[String]): Unit = {
val spark = SparkSession
.builder()
.appName("five")
.enableHiveSupport()
.master("local[2]")
.getOrCreate()
//这里我用的集群
spark.sql("use mine")
spark.table("exte")
.select("*")
.show()
spark.stop()
最后
以上就是香蕉小甜瓜为你收集整理的Spark sql 从hive中读取数据的全部内容,希望文章能够帮你解决Spark sql 从hive中读取数据所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复