我是靠谱客的博主 强健指甲油,最近开发中收集的这篇文章主要介绍02 使用Sqoop完成mysql与hdfs之间的数据交换1、前提约束2、操作步骤,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

本节将演示使用Sqoop完成mysql与hdfs之间的数据交换。

1、前提约束

  • 已安装Sqoop
    https://www.jianshu.com/p/c0f8d7ac4ae0
  • 已安装Hadoop并启动
    https://www.jianshu.com/p/b7ae3b51e559
  • 已安装mysql并启动
    https://www.jianshu.com/p/9a4976b23495
    假设虚拟机所在的Centos服务器ip为192.168.100.141,且已关闭防火墙
    假设sqoop安装目录为 /root/sqoop-1.4.7.bin__hadoop-2.6.0
    假设hadoop安装目录为 /root/hadoop-2.5.2
    假设mysql的账号密码为 root/zhangli

2、操作步骤

(1) 把mysql中的数据导入HDFS

  • 在mysql中初始化数据,执行以下命令:
mysql -uroot -pzhangli
create database test;
use test;
create table t_info(id int,name varchar(20),age int);
insert into t_info(id,name,age) values(1,'ali',20);
insert into t_info(id,name,age) values(2,'xiaoli',3);
exit;
  • 在hdfs中创建文件夹
cd /root/hadoop-2.5.2
./hdfs dfs -mkdir /data
  • 把t_info表导入到hdfs
cd /root/sqoop-1.4.7.bin__hadoop-2.6.0/bin

./sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password zhangli --query 'select id, name,age from t_info where $CONDITIONS LIMIT 100'  --target-dir /data --delete-target-dir --num-mappers 1 --direct --fields-terminated-by ' '
# 查看hdfs中导入的文件
cd  /root/hadoop-2.5.2/bin
./hdfs dfs -ls /data

(2)将hdfs中的数据导入到mysql
hdfs的/data文件夹下有文档,内容如下:

1 ali 20
2 xiaoli 3

执行以下命令:

mysql -uroot -pzhangli
create database test;
use test;
create table t_info(id int,name varchar(20),age int);
exit;
cd /root/sqoop-1.4.7.bin__hadoop-2.6.0/bin
./sqoop export   --connect jdbc:mysql://localhost:3306/test --username root  --password zhangli  --table t_info --export-dir /data --input-fields-terminated-by ' '
  • 执行完毕,查看mysql数据库实例test中的t_info表,便能看到数据已经被导入该表。
    以上就是使用Sqoop完成mysql与hdfs之间的数据交换。

最后

以上就是强健指甲油为你收集整理的02 使用Sqoop完成mysql与hdfs之间的数据交换1、前提约束2、操作步骤的全部内容,希望文章能够帮你解决02 使用Sqoop完成mysql与hdfs之间的数据交换1、前提约束2、操作步骤所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(31)

评论列表共有 0 条评论

立即
投稿
返回
顶部