MySQL写进HDFS里
bin/sqoop import --connect jdbc:mysql://node01:3306/test --username root --password root --table student --target-dir /sqoop --m 1
–table 是数据库里的表, --target-dir是上传路径 --m 是你要用几个MapReduce来执行
HDFS导出到MySQL (MySQL表必须已经存在,不会自动创建)
bin/sqoop export --connect jdbc:mysql://node01:3306/test --username root --password root --table student --export-dir /sqoop/part-m-00000
MySQL写进Hive里
bin/sqoop import --connect jdbc:mysql://node01:3306/test --username root --password root --table person --hive-table hive_person --hive-import --m 1
Hive导出到MySQL
bin/sqoop export --connect jdbc:mysql://node01:3306/test --username root --password root --table person --export-dir /user/hive/warehouse/hive_person/part-m-00000 --input-null-string “\N” --input-null-non-string “\N” --input-fields-terminated-by “ 01” --input-lines-terminated-by “n” -m 1
最后
以上就是大气小鸽子最近收集整理的关于sqoop导入数据到HDFS,hive的命令的全部内容,更多相关sqoop导入数据到HDFS,hive内容请搜索靠谱客的其他文章。
发表评论 取消回复