我是靠谱客的博主 香蕉小甜瓜,这篇文章主要介绍Spark sql 从hive中读取数据,现在分享给大家,希望可以做个参考。

 这种方式只适用在服务器上提交spark-submit时读取本集群hive中的数据

val spark = SparkSession
      .builder()
//项目名字,任意取
      .appName("five")
//从hive中读取数据的关键配置
      .enableHiveSupport()
//本地执行
      .master("local[2]")
      .getOrCreate()
   

之后就是很简单的

//如果使用的集群
spark.sql("use 自己主机名")

spark.table("表名")

简单示范一下

 def main(args: Array[String]): Unit = {
    val spark = SparkSession
      .builder()
      .appName("five")
      .enableHiveSupport()
      .master("local[2]")
      .getOrCreate()
//这里我用的集群
    spark.sql("use mine")
    spark.table("exte")
        .select("*")
        .show()

    spark.stop()
    

最后

以上就是香蕉小甜瓜最近收集整理的关于Spark sql 从hive中读取数据的全部内容,更多相关Spark内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(46)

评论列表共有 0 条评论

立即
投稿
返回
顶部