我是靠谱客的博主 舒心香烟,最近开发中收集的这篇文章主要介绍Sqoop的配置和使用,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

一、 解压sqoop.tar压缩包至指定目录

二、配置

  1. 开启Zookeeper
  2. 开启集群服务
  3. 配置文件( sqoop-env.sh ):
    #Set path to where bin/hadoop is available
    export HADOOP_COMMON_HOME=/usr/local/hadoop-2.7.3
    
    #Set path to where hadoop-*-core.jar is available
    export HADOOP_MAPRED_HOME=/usr/local/hadoop-2.7.3
    
    #set the path to where bin/hbase is available
    export HBASE_HOME=/usr/local/hbase-1.3.2
    
    #Set the path to where bin/hive is available
    export HIVE_HOME=/usr/local/hive
    
    #Set the path for where zookeper config dir is
    export ZOOCFGDIR=/usr/local/zookeeper-3.4.6
    export ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.6
    
  4. 拷贝jdbc驱动到sqoop的lib目录下
    cp -a mysql-connector-java-5.1.47-bin.jar /usr/local/sqoop-1.4.7/lib/
    
  5. 配置环境变量
    // 修改环境变量
    vim /etc/profile
    
    export SQOOP_HOME=/usr/local/sqoop-1.4.7
    export PATH=$PATH:$SQOOP_HOME/bin
    
    // 配置环境变量生效
    source /etc/profile
    
  6. 测试sqoop是否能够连接成功
    sqoop list-databases --connect jdbc:mysql://hadoop01:3306/metastore_db  
    --username root --password root
    

三、案例

1. RDBMS -> HDFS
  1. 全部导入
    sqoop import
    --connect jdbc:mysql://hadoop01:3306/test
    --username root
    --password root
    --table test01
    --target-dir /tmp/test01
    --delete-target-dir
    --num-mappers 1
    --fields-terminated-by "t"
    
  2. 查询导入
    sqoop import 
    --connect jdbc:mysql://hadoop01:3306/test
    --username root 
    --password root 
    --target-dir /tmp/test01
    --delete-target-dir 
    --num-mappers 1 
    --fields-terminated-by "t" 
    --query 'select name,sex from test01 where id >= 2 and $CONDITIONS;'
    
  3. 导入指定列
    sqoop import 
    --connect jdbc:mysql://hadoop01:3306/test
    --username root 
    --password root
    --target-dir /tmp/test01
    --delete-target-dir 
    --num-mappers 1 
    --fields-terminated-by "t"
    --columns id, sex
    --table test01
    
  4. 使用sqoop关键字筛选查询导入数据
    sqoop import 
    --connect jdbc:mysql://hadoop01:3306/test
    --username root 
    --password root
    --target-dir /tmp/test01
    --delete-target-dir 
    --num-mappers 1 
    --fields-terminated-by "t"
    --table test01
    --where "id=3"
    
2. RDBMS --> Hive
sqoop import 
--connect jdbc:mysql://hadoop01:3306/test 
--username root 
--password root 
--table test01 
--num-mappers 1 
--hive-import 
--fields-terminated-by "t" 
--hive-overwrite 
--hive-table test.test02
3. Hive/HDFS --> RDBMS
sqoop export 
--connect jdbc:mysql://hadoop01:3306/test 
--username root 
--password root
--table test01
--num-mappers 1 
--export-dir /user/hive/warehouse/test.db/test02
--input-fields-terminated-by "t" 
4. RDBMS --> HBASE
sqoop import 
--connect jdbc:mysql://hadoop01:3306/zlh 
--username root 
--password root 
--table t_shop
--columns "id,name,price" 
--column-family "infos" 
--hbase-create-table 
--hbase-row-key "id" 
--hbase-table "h_shop" 
--num-mappers 1 
--split-by id

最后

以上就是舒心香烟为你收集整理的Sqoop的配置和使用的全部内容,希望文章能够帮你解决Sqoop的配置和使用所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(48)

评论列表共有 0 条评论

立即
投稿
返回
顶部