我是靠谱客的博主 美丽发夹,这篇文章主要介绍使用SQOOP将hive的数据导入到mysql使用SQOOP将hive的数据导入到mysql,现在分享给大家,希望可以做个参考。

使用SQOOP将hive的数据导入到mysql

使用SQOOP将hive的数据导入到mysql

我们一般会使用sqoop 将mysql的数据导入到hive中,但是有时候也会有需求使用。

使用的脚本如下:(一种方式)

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
sqoop export --connect jdbc:mysql://127.0.0.1:3306/test?serverTimezone=Asia/Shanghai&tinyInt1isBit=false&autoReconnect=true --username root --password root #如果有特殊符号,需要将添加单引号 --table test_sqoop # mysql的table 名称 --update-mode allowinsert #数据抽取 默认是 updateonly --hcatalog-table #ods_tese_mall_order_info # hive的表名字 --hcatalog-database ods #hive数据库名称 --hcatalog-partition-keys dt #hive的分区 --hcatalog-partition-values '2021-03-01' #hive 分区值 --fields-terminated-by ',' #分割符 --columns 'last_modify_time' #指定导入的列 (如果不指定,那么就会导入mysql中包含所有的列,如果hive中不存在,那么就会报错) --num-mappers 1 #指定mapper数量

第二种方式

复制代码
1
2
3
4
5
6
7
8
9
sqoop export --connect jjdbc:mysql://127.0.0.1:3306/test?serverTimezone=Asia/Shanghai&tinyInt1isBit=false&autoReconnect=true --username root --password root --table docter_order_recipe_info --fields-terminated-by ',' --export-dir 'hdfs://dc/user/hive/warehouse/dws.db/dws_docter_order_recipe_info/' #指定hive在hdfs上存在的目录 --m 1

最后

以上就是美丽发夹最近收集整理的关于使用SQOOP将hive的数据导入到mysql使用SQOOP将hive的数据导入到mysql的全部内容,更多相关使用SQOOP将hive内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(93)

评论列表共有 0 条评论

立即
投稿
返回
顶部