概述
添加jdbc依赖
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
<version>5.1.43</version>
</dependency>
添加spark-hive支持依赖
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.11</artifactId>
<version>2.1.1</version>
</dependency>
拷贝hive-site,hdfs-site,core-site到resources中
运行spark程序
val spark = SparkSession
.builder()
.master("local[*]")
.appName("hive")
.enableHiveSupport()
.getOrCreate()
import spark.sql
sql("CREATE TABLE IF NOT EXISTS src (ci STRING)")
sql("LOAD DATA LOCAL INPATH 'src/main/resources/1.txt' INTO TABLE src")
sql("SELECT * FROM src").show()
sql("SELECT COUNT(*) FROM src").show()
sql("DROP TABLE IF EXISTS LOC")
df.write.saveAsTable("LOC")
若建表失败,提示权限不足,无法向HDFS中写入,修改HDFS上warehouse的权限即可
hadoop fs -chmod 777 /user/hive/warehouse
最后
以上就是激动季节为你收集整理的spark 2.1.1访问hive2.3.0的全部内容,希望文章能够帮你解决spark 2.1.1访问hive2.3.0所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复