我是靠谱客的博主 大气小鸽子,最近开发中收集的这篇文章主要介绍sqoop导入数据到HDFS,hive的命令,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

MySQL写进HDFS里
bin/sqoop import --connect jdbc:mysql://node01:3306/test --username root --password root --table student --target-dir /sqoop --m 1
–table 是数据库里的表,    --target-dir是上传路径       --m 是你要用几个MapReduce来执行




HDFS导出到MySQL (MySQL表必须已经存在,不会自动创建)
bin/sqoop export --connect jdbc:mysql://node01:3306/test --username root --password root --table student --export-dir /sqoop/part-m-00000




MySQL写进Hive里
bin/sqoop import --connect jdbc:mysql://node01:3306/test --username root --password root --table person --hive-table hive_person --hive-import --m 1





Hive导出到MySQL
bin/sqoop export --connect jdbc:mysql://node01:3306/test --username root --password root --table person --export-dir /user/hive/warehouse/hive_person/part-m-00000 --input-null-string “\N” --input-null-non-string “\N” --input-fields-terminated-by “01” --input-lines-terminated-by “n” -m 1

最后

以上就是大气小鸽子为你收集整理的sqoop导入数据到HDFS,hive的命令的全部内容,希望文章能够帮你解决sqoop导入数据到HDFS,hive的命令所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(69)

评论列表共有 0 条评论

立即
投稿
返回
顶部