我是靠谱客的博主 香蕉小甜瓜,最近开发中收集的这篇文章主要介绍Spark sql 从hive中读取数据,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

 这种方式只适用在服务器上提交spark-submit时读取本集群hive中的数据

val spark = SparkSession
      .builder()
//项目名字,任意取
      .appName("five")
//从hive中读取数据的关键配置
      .enableHiveSupport()
//本地执行
      .master("local[2]")
      .getOrCreate()
   

之后就是很简单的

//如果使用的集群
spark.sql("use 自己主机名")

spark.table("表名")

简单示范一下

 def main(args: Array[String]): Unit = {
    val spark = SparkSession
      .builder()
      .appName("five")
      .enableHiveSupport()
      .master("local[2]")
      .getOrCreate()
//这里我用的集群
    spark.sql("use mine")
    spark.table("exte")
        .select("*")
        .show()

    spark.stop()
    

最后

以上就是香蕉小甜瓜为你收集整理的Spark sql 从hive中读取数据的全部内容,希望文章能够帮你解决Spark sql 从hive中读取数据所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(51)

评论列表共有 0 条评论

立即
投稿
返回
顶部