我是靠谱客的博主 大气小鸽子,这篇文章主要介绍sqoop导入数据到HDFS,hive的命令,现在分享给大家,希望可以做个参考。

MySQL写进HDFS里
bin/sqoop import --connect jdbc:mysql://node01:3306/test --username root --password root --table student --target-dir /sqoop --m 1
–table 是数据库里的表,    --target-dir是上传路径       --m 是你要用几个MapReduce来执行




HDFS导出到MySQL (MySQL表必须已经存在,不会自动创建)
bin/sqoop export --connect jdbc:mysql://node01:3306/test --username root --password root --table student --export-dir /sqoop/part-m-00000




MySQL写进Hive里
bin/sqoop import --connect jdbc:mysql://node01:3306/test --username root --password root --table person --hive-table hive_person --hive-import --m 1





Hive导出到MySQL
bin/sqoop export --connect jdbc:mysql://node01:3306/test --username root --password root --table person --export-dir /user/hive/warehouse/hive_person/part-m-00000 --input-null-string “\N” --input-null-non-string “\N” --input-fields-terminated-by “01” --input-lines-terminated-by “n” -m 1

最后

以上就是大气小鸽子最近收集整理的关于sqoop导入数据到HDFS,hive的命令的全部内容,更多相关sqoop导入数据到HDFS,hive内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(72)

评论列表共有 0 条评论

立即
投稿
返回
顶部