我是靠谱客的博主 激动季节,最近开发中收集的这篇文章主要介绍spark 2.1.1访问hive2.3.0,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

添加jdbc依赖

 <dependency>
        <groupId>mysql</groupId>
        <artifactId>mysql-connector-java</artifactId>
        <version>5.1.43</version>
    </dependency>

添加spark-hive支持依赖

    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-hive_2.11</artifactId>
        <version>2.1.1</version>
    </dependency>

拷贝hive-site,hdfs-site,core-site到resources中

运行spark程序

 val spark = SparkSession
      .builder()
      .master("local[*]")
      .appName("hive")
      .enableHiveSupport()
      .getOrCreate()

    import spark.sql

        sql("CREATE TABLE IF NOT EXISTS src (ci STRING)")
        sql("LOAD DATA LOCAL INPATH 'src/main/resources/1.txt' INTO TABLE src")

        sql("SELECT * FROM src").show()
        sql("SELECT COUNT(*) FROM src").show()

        sql("DROP TABLE IF EXISTS LOC")
        df.write.saveAsTable("LOC")

若建表失败,提示权限不足,无法向HDFS中写入,修改HDFS上warehouse的权限即可

hadoop fs -chmod 777 /user/hive/warehouse

最后

以上就是激动季节为你收集整理的spark 2.1.1访问hive2.3.0的全部内容,希望文章能够帮你解决spark 2.1.1访问hive2.3.0所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(51)

评论列表共有 0 条评论

立即
投稿
返回
顶部